Prévia do material em texto
O PROCESSO DA INTELIGÊNCIA EMPRESARIAL Prof. Vinícius Silveira Magnus Neste capítulo, você vai aprender Os conceitos básicos de Inteligência Empresarial; A história da Inteligência Empresarial e sua evolução; A reconhecer os componentes do processo de Inteligência Empresarial; A identificar os elementos de um sistema de Inteligência Empresarial bem como sua arquitetura. Introdução A competitividade nos diversos setores econômicos tem feito diversas empresas recorrerem a técnicas e ferramentas que visam auxiliá-las nos negócios. A corrida por uma participação maior em um determinado mercado, um posicionamento diferente da empresa frente a um novo cenário e o foco momentâneo em determinado produto são processos que levam as empresas, geralmente, a buscarem mais informações e a entenderem qual o real cenário para tomar suas decisões guiadas por fatos. Esses fatos são dados e informações que auxiliam a empresa nessas decisões e podem ser o grande diferencial para o sucesso de determinado negócio. Trabalhar com dados, transformando-os em informação e, posteriormente, em conhecimento, é o ciclo natural que empresas deve percorrer para tomar suas decisões. Porém, esse processo é, sem dúvida, muito trabalhoso, pois envolve muitos dados de diferentes fontes e de diferentes tipos que geralmente não estão integrados e que, de maneira isolada, representam muito pouco para a organização em termos de processo decisório. É aí que entra a Inteligência Empresarial, buscando sistemáticas para coletar esses dados nas diversas fontes internas e externas da organização, transformando-os a fim de unificar e padronizar suas estruturas e, posteriormente, analisá-los com técnicas e ferramentas específicas para isso. A Inteligência Empresarial, Inteligência de Negócio ou do termo em inglês Business Intelligence é o foco de nosso estudo neste tema, em que iremos entender um pouco de seus fundamentos conceituais e recorrer um pouco à História para entendermos o processo, a criação e a estrutura dos sistemas de Inteligência Empresarial. Fundamentos do Processo de Inteligência Empresarial A inteligência empresarial ou inteligência de negócios, conhecida em inglês pela sigla BI (Business Intelligence), se refere ao processo de suporte aos negócios através da coleta, organização, análise, compartilhamento e monitoramento de informações. É um processo orientado por tecnologias que analisam dados e entregam informações que auxiliam os representantes da organização a tomar decisões para seus negócios. O BI possui uma ampla variedade de recursos para apoio à sua execução, como ferramentas, aplicações e metodologias que dão à organização a possibilidade de coletar dados de fontes internas e externas, a fim de analisar, desenvolver e consultar esses dados e criar através deles relatórios, painéis (dashboards) e outros tipos de visualizações, entregando resultados analíticos para o processo de tomada de decisão, bem como tarefas operacionais . Entendendo e aplicando o BI Vamos nos aprofundar um pouco no conceito de BI (Business Intelligence), entendendo que ele se refere ao conjunto de técnicas que auxiliam na identificação, organização e análise de um grande volumes de dados para melhorar a conclusão ou decisão em uma organização. Nós entendemos melhor o conceito com a ajuda de um exemplo. Usando um supermercado como nosso exemplo, suponha que nele tenhamos registrado os dados de vendas nos últimos 6 meses. Nesses dados, temos diversos produtos, cada um com suas respectivas especificações. Suponha que pegamos um produto para a análise, por exemplo, velas, e possuímos em nosso catálogo de vendas três tipos de velas, Vela A, Vela B, Vela C. Ao observarmos inicialmente esses dados, descobrimos que a Vela C estava com o maior número de vendas dessas três classes. Agora, com um observação um pouco mais aprofundada e detalhada desses dados, obtivemos o resultado de que a venda dessa vela C tem seu horário de venda mais frequente das 9h às 11h. Em uma análise desse cenário, chegamos à conclusão, pelo tipo de vela, que ela é mais usada em lugares de adoração, como em igrejas e santuários. Vamos, a partir desse cenário, aplicar o Business Intelligence para essa análise. O que uma empresa ou organização pode fazer é montar uma estratégia de venda com o mapeamento de outro material que possa ser usado na igreja e colocá-los perto dessas velas. Assim, os clientes que se aproximam do supermercado para comprar as velas para o local de culto também podem dar uma olhada no outro material e ficar tentados a comprá-lo também. Isso certamente aumentará as vendas e, consequentemente, a receita de nosso supermercado. https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_PUzrw8Z4tJrm https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_PUzrw8Z4tJrm História e Evolução da Inteligência Empresarial O conceito de inteligência empresarial se popularizou na década de 80 com o Gartner Group, uma instituição de pesquisa do setor tecnológico que definiu o termo baseado em aplicações e tecnologias utilizadas na época para coletar dados referente às atividades gerenciais e operacionais das empresas, quando esses dados eram utilizados para análise e extração de informações que suportassem o processo decisório nas organizações. Inicialmente, as aplicações e sistemas corporativos tinham suas bases de dados com funcionalidades específicas para cada departamento ou setor. Assim, cada novo departamento informatizado, um novo sistema como uma nova base que ia crescendo de acordo com o volume de dados do departamento e se tornando grandes ilhas de informações. Foram classificadas sem nenhum tipo de integração com outros sistemas, muito menos funcionalidades que suportassem essas integrações, ou trocas de informações. Ainda no início da automação dos processos organizacionais, as grandes empresas se deram conta do valor que os dados tinham se fossem trabalhados de forma analitica. É certo que cada setor automatizado gerava uma série de novos dados para serem utilizados, porém, como cada sistema era concebido de maneira específica, ficava quase impossível cruzar esses dados devido à incompatibilidades de tecnologias e protocolos de cada um. Quando as organizações resolveram unir esses dados para troca, coleta e análise, uma infraestrutura própria para isso se fazia necessário, assim o data warehouse evoluiu para suprir essas necessidades. Data Warehouse O Data Warehouse é, de forma resumida, um local centralizado na organização que armazena os dados de todos os sistemas da organização em um local único. Esses dados são organizados de maneira a promover e facilitar a organização, padronização e consultas a esses dados, tornando o processo de tomada de decisão sustentada por dados e informações. Os dados centralizados em um Data Warehouse eram provenientes dos Data Sources, que poderiam ser a base de dados específicas de cada sistema ou qualquer outro tipo de dados, como planilhas, catálogos e relatórios de outros sistemas. Quando os dados foram estratificados dessa base de dados central a fim de serem organizados para análises especiais para cada área, por exemplo, vendas, estoque ou logística, essas bases menores focadas são chamadas de Data Marts. Essa estrutura e ligação está ilustrada na Figura 1. https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_Wsis0ifStLNS https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_Wsis0ifStLNS FIGURA 1: ALGUNS DATA SOURCE (BANCO DE DADOS MENORES E OUTRAS FONTES DE DADOS COMO PLANILHAS) LIGADOS A UM DATA WAREHOUSE (BANCO DE DADOS MAIOR), QUE POR FIM ESTÃO LIGADOS A ALGUNS DATA MART (BANCOS DE DADOS MENORES). Para organizar e utilizar essa estrutura, o desafio era muito grande, pois em primeiro lugar os dados deveriam ser adquiridos de uma variedade de sistemasdiferentes e incompatíveis. Alguns dados idênticos poderiam estar armazenados em sistemas distintos e com tipos (estruturas) distintas. Um item de alguns dados específicos poderia não ser apenas representado em formatos distintos, mas também em valores distintos, pois era proveniente de fontes de dados diferentes, a questão era saber qual o valor correto para ser utilizado. Por outro lado, os dados estão sendo alterados continuamente, o que levantava mais uma questão, a frequência que o data warehouse deveria ser revisado para contemplar uma visão sensivelmente atual. E, por fim, a quantidade de dados é enorme, e os dados devem ser analisados e apresentados para que tenham relevância. A fim de organizar essa estrutura e manter a organização para o uso dos dados, uma série de ferramentas foram desenvolvidas, e entre elas destacamos três: os utilitários de extração, transformação e carregamento de dados, chamados de ETL; ferramentas de mineração de dados para suportar as consultas que deveriam ser feitas e, por fim, as ferramentas de relatórios, que apresentavam de maneira simples e clara os resultados do processo e os funcionário envolvidos no processo decisório. Extração, transformação e carregamento (ETL) Os sistemas de informações computacionais precursores em organizações na década de 50 mantinham seu armazenamento basicamente em fitas magnéticas. Com a necessidade da troca de informação entre os sistemas, essas fitas foram padronizadas, e qualquer máquina poderia ler as informações que uma outra máquina ou sistemas tivesse gerado. Com essa possibilidade, os Data Warehouse iniciais eram alimentados por fitas magnéticas de diversos sistemas da organização, porém, cada sistemas tinha sua estrutura de organização e armazenamento de dados, e o cruzamento desses dados era muito difícil. https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_pM78ZNx2xXVl https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_pM78ZNx2xXVl Os bancos de dados de um Data Warehouse eram projetados para desempenhar funções analíticas para a inteligência de negócio. A estrutura do banco de dados era organizada com índices e indicadores complexos para suportar um processo em tempo real de análise de dados, o OLAP (On-line Analytical Processing). Esses bancos de dados com suporte ao OLAP eram projetados para possibilitar consulta dos mais variados tipos, podendo ser consultas analíticas ou ad hoc, que eram executados de maneira rápida e atualizada. Para tanto, os dados que eram alimentados no Data Warehouse pelas diversas fontes tiveram que ser convertidos em um formato que facilitasse o processo como um todo. Nessa visão, ferramentas chamadas de ETL (Extract, Transform e Load) foram desenvolvidas para auxiliar o processo de extração de dados das diversas fontes da organização e transformação de dados em um formato que facilitasse o processo do Data Warehouse como um todo, mas especificamente contribuiu de forma mais incisiva para o carregamento desses dados na base central do DW. As funções do ETL permitem que várias fontes de dados sejam estruturados em um único local, a base central do Data Warehouse, e por consequência sejam utilizados em análises mais complexas, principalmente por conterem um grande volume e uma grande variedade de dados da organização. Esse processo pode ser realizado em decorrência do modelo de negócio e da necessidade da organização, podendo ser mensalmente, semanalmente, diariamente ou em um cronograma específico. Essa sistemática é chamada de ETL Off-line, pois não tem sincronia com as fontes de dados de forma instantânea, mas sim de forma periódica. Embora seja um processo aceitável em muitas situações, o ETL off-line não trazia a resposta suficiente para alguns casos, pois os dados no data warehouse não estavam sempre atualizados, e isso poderia demorar até meses. Outra questão é que em muitas situações os bancos de dados que eram as fontes do data warehouse tinham que ser podados, muitas vezes por horas ou dias, para que os dados extraídos não fossem inconsistentes, e isso afetava diretamente a operação de alguns departamentos. Com isso, algumas alternativas tecnológicas foram experimentadas a fim de trazer maior velocidade e suporte ao negócio, técnicas de extração de dados que não afetassem as fontes de dados que alimentam o DW. Assim, após alguns anos surgiu o ETL on-line, fornecendo atualização dos dados em tempo real, respostas mais confiáveis para as consultas realizadas, pois os dados eram atualizados constantemente, justamente para haver uma visão atual do estado do negócio. Essas novas ferramentas de ETL davam suporte aos conceitos de OLAP que os Data Warehouse buscavam implementar. A partir de fontes de dados que eram centralizadas e organizadas, agora é possível então fazer análise desses dados, porém, antes da análise era preciso mais um processo que preparasse esses dados para a análise, e surge então a mineração de dados, ou Data Mining. Data Mining As ferramentas de ETL tornaram a coleta de dados muito prática, pois vários sistemas poderiam servir como fonte de dados, não importando a sua estrutura ou organização, e era justamente isso que os ETL visavam entender para carregar os dados no Data Warehouse. Os dados carregados no DW representavam fatos ocorridos no contexto da organização, como uma venda realizada, o registro de um cliente, uma compra feita junto a um fornecedor, um pagamento realizado, porém, se analisados de maneira isolada, não significam muita coisa. Agora, com o volume de dados do DW, eles poderiam ser cruzados ou analisados como um todo, como, por exemplo, o volume de vendas no mês de um determinado produto, ou mais ainda, a venda desse produto com o perfil do consumidor. Sendo assim, os dados eram processados a fim de organizá-los de maneira específica a um determinado cenário, tornando assim um mero dado ou conjunto deles em uma informação importante, que poderia ser utilizada para um processo de decisão. O Data Mining vai ainda além, ele busca possíveis padrões e relações entre os dados existentes, na tentativa de detectar qual a regra ou associação que faz essa relação, o que entendemos como o conhecimento que podemos gerar a partir de dados e informações. Um exemplo seria verificar que em um grande número de casos em que um produto x é vendido o cliente também leva o produto y, ou melhor, detectar qual a relação entre os dois produtos com o perfil do consumidor. Podemos entender isso como o conhecimento do negócio, que é proveniente da informação e representa o padrão que conecta essas informações. Geralmente, apresenta um alto grau de previsibilidade de fatos que podem acontecer no decorrer do tempo, como saber qual produto será mais vendido na semana que vem. Vários mecanismos tecnológicos de mineração de dados foram desenvolvidos para suportar consultas no banco de dados de um Data Warehouse. A mineração de dados procurou, então, detectar cada vez mais os padrões entre centenas de campos aparentemente não relacionados em um grande banco de dados, padrões que reconheciam tendências muitas vezes desconhecidas de fatos históricos. Essas tendências desempenham um papel fundamental na tomada de decisões estratégicas e com elas o cenário do mercado competitivo foi amplamente modificado. Ferramentas de relatórios Os resultados obtidos nas ferramentas de mineração de dados não eram muito amigáveis aos olhos de todos, números, fórmulas, relações e outras informações que eram estratificadas do Data Warehouse não tinham muito valor se não fossem organizados e apresentados de forma clara e objetiva. Surge aí uma nova categoria de sistemas de informações, as ferramentas de relatórios, ou Report Tools. Foram criadas muitas formas para relatar informações e resultados provenientes do processo de mineração de dados para o processo de inteligênciaempresarial, podendo ser entregues de diversas maneiras, como pareceres escrito, gráficos, tabelas, entre outros. Uma das técnicas mais comuns foram os painéis digitais, conhecidos como dashboards. Eles apresentam os dados em formatos visuais, muitas vezes em gráficos e com a possibilidade do detalhamentos de cada informação nele contido, e possuem um grande diferencial por estarem sempre atualizados. Um exemplo de painel digital pode ser visto na Figura 2. Essas ferramentas fornecem aos gestores do negócios as informações necessárias para levar as organizações ao sucesso. De maneira específica ou geral, essas ferramentas ganharam espaço nos ambientes corporativos, cada dia trazendo mais informações. Muitas dessas ferramentas possuem um solução completa e específica para a análise de dados, que se integram a ferramenta de mineração ou diretamente à base do DW. O surgimento dos Sistemas de Inteligência Empresarial Com o passar dos anos e a evolução das tecnologias, surgiram inúmeros sistemas específicos para a Inteligência Empresarial, alguns com novas propostas de arquiteturas e diferentes abordagens de tratamento de dados e informações. Alguns se mostraram como evoluções tecnológicas das ferramentas antigas e outros versões mais inovadoras, porém, os conceitos ainda permanecem baseados nesse processo de evolução histórica que acabamos de ver. https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_R_Z6JM4jyBUo https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.p_R_Z6JM4jyBUo https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.jafirjsynej0 https://www.sites.google.com/ulbra.br/G000077GS001/t001#h.jafirjsynej0 Para o desenvolvimento de um sistemas BI, os sistemas basicamente precisam suportar três tarefas distintas que o processo de BI implementa: A primeira tarefa que o sistema precisa fazer é reunir os dados necessários sobre os negócios. A chave para isso é automatizar o processo. A coleta de dados consumia muito tempo e dinheiro no passado, mas hoje em dia, com o uso de computadores modernos, é muito mais fácil coletar dados de várias fontes. A segunda tarefa é analisar os dados coletados e extrair mais informações deles. A informação extraída é então transformada em conhecimento. A tarefa final é usar o conhecimento recém-adquirido para melhorar os negócios. Estrutura dos sistemas de inteligência Com foco nessa abordagem, mostrada anteriormente nas três tarefas que os sistemas de BI devem suportar, algumas implementações surgiram e evoluíram até os conceitos atuais, mas muito dos conceitos se mantiveram como base, com a diferença de que sistemas grandes como ERP já fornecem uma unificação dos dados em uma base organizada e podem também oferecer as ferramentas de BI junto à sua solução. Mas, de forma resumida, as estrutura dos sistemas de BI passa por quatro camadas, como mostrado na Figura 3. O Data Sources são as fontes de dados da empresa, que podem ser internas ou externas. As fontes internas podem ser dos mais diversos sistemas utilizados ou de arquivos, planilhas, imagens que tenham dados importantes a serem analisados pela empresa. O Data Warehouse continua sendo o conceito de repositório central de dados, que através de um processo de transformação carrega as informações dos Data Sources, deixando as mesmas disponíveis para as ferramentas analiticas. As ferramentas analiticas, chamadas também de ferramentas de BI, foram as que talvez mais evoluíram. Elas analisam os dados do Data Warehouse ou dos Data Mart, a fim de gerar os dados/informações em tempo aos usuário, através das diversas formas de acesso aos mesmos. Um sistema de inteligência empresarial, concebido para tal, tem três vantagens principais: Ele não apenas suporta as mais recentes tecnologias da informação, mas também fornece soluções de aplicativos pré-empacotadas; Ele se concentra no acesso e na entrega de informações comerciais aos usuários finais e oferece suporte a provedores e consumidores de informações; Ele suporta o acesso a todas as formas de informações comerciais, e não apenas às informações armazenadas em um data warehouse. TÉCNICAS E METODOLOGIAS PARA INTELIGÊNCIA EMPRESARIAL Prof. Vinícius Silveira Magnus Neste capítulo, você vai aprender. As metodologias e técnicas utilizadas para a Inteligência Empresarial; Sobre análises dimensionais; A estrutura de um Data Warehouse na visão multidimensional; A compreender o funcionamento do OLAP; A conhecer os componentes do OLAP. Introdução Para trabalharmos e entendermos a Inteligência de Negócio, necessitamos compreender quais são as Técnicas e Metodologias bases utilizadas para a mesma. Essa compreensão passa, basicamente, pelo entendimento de como os dados são modelados em um ambiente de armazenamento, para organizá-los a fim de facilitar o processo de consulta e análise destes. Nessa linha, temos como principal técnica a modelagem e análise dimensional de dados, ou conhecidas também com multidimensionais, que procuram preparar o ambiente do Data Warehouse para as consultas por meio de métodos como o OLAP. A estruturação dos dados coletados em um ambiente organizacional talvez ainda seja o principal tema dentro do BI. É ele que determina, muitas vezes, a capacidade que uma ferramenta terá de analisar os dados e as relações entre elas, de maneira clara, rápida e dinâmica, para o auxílio no processo de tomada de decisão de uma organização. Análise Multidimensional Na matemática, e em campos relacionados, a análise multidimensional é um processo de análise de dados que agrupa os dados em duas ou mais categorias: caracterizando dimensões e medidas dos dados. A análise multidimensional é uma análise informativa de dados que leva em consideração inúmeras conexões distintas, cada uma das quais compreende uma dimensão. Por exemplo, um analista de varejo pode querer entender as conexões entre as vendas por distrito, por trimestre, por circulação demográfica ou por produto. A análise multidimensional produzirá resultados para esses relacionamentos complexos. Para demonstrar isso de forma mais real, vamos considerar o caso dos dados de uma equipe de futebol. Um conjunto de dados que compreende o número de vitórias da equipe a cada ano por muitos anos; esses dados podem ser categorizados em um único conjunto de dados, chamados de dimensional ou longitudinal. Outro conjunto de dados que compreende o número de vitórias que várias equipes diferentes dentro de um ano podem estar em um conjunto de dados seccional ou transversal unidimensional. Um único conjunto de dados que compreende o número de vitórias de diversas equipes de críquete ao longo de vários anos pode ser composto por um conjunto de dados bidimensional. https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.9n1pkv6pch4l https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.9n1pkv6pch4l Data Warehouse Dimensional As dimensões são uma maneira comum de analisar dados. O modelo de dimensão compreende uma tabela de fatos e várias tabelas dimensionais e é usado para avaliar dados resumidos. A modelagem de dados dimensionais é a técnica de modelagem preferida em um ambiente de BI. Conhecer os conceitos básicos de armazenamento e dimensões de dados ajuda a projetar um melhor data warehouse que se adapta aos seus relatórios de necessidades. O Modelo Dimensional O modelo dimensional é composto por uma tabela de fatos e várias tabelas dimensionais e é usado para avaliar dados resumidos. Como os relatórios de Business Intelligence são usados na avaliação dos fatos (agregados) em várias dimensões, a modelagem de dados dimensionais prefere a técnica de modelagem em um ambiente de BI. Os fatos, normalmente, são dados calculados, como valor em dólares, vendas ou receita. Eles correspondem ao objetivo de uma análise de suporte à conclusão.As dimensões definem o eixo de investigação de um fato. Por exemplo as informações de Produto, Região e Hora são os eixos de consulta dos detalhes de Vendas. Uma dessas consultas pode ser um cenário em que o usuário pode exigir a visualização de vendas (em reais) para um item específico em um mercado durante um período de tempo específico. Nesse caso, estamos calculando o fato (Vendas) em três dimensões (Produto, Região e Tempo). Assim, podemos dizer que as dimensões dão visões diferentes dos fatos. Eles dão estrutura aos fatos não estruturados. Vamos definir também outros dois conceitos importantes, o primeiro são as medidas, que são os valores a serem analisados, como médias, totais e quantidades. Outro são as agregações, que são as totalizações calculadas nos diversos níveis hierárquicos. A Figura 1 exemplifica como podem ser visualizados os dados em um modelo dimensional. https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.bhojfog794ba https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.bhojfog794ba Tabela de fatos A tabela de fatos, geralmente, representa um processo ou ambiente de relatório que é valioso para a organização. É importante determinar a identidade da tabela de fatos e especificar exatamente o que ela representa. Uma tabela de fatos, normalmente, corresponde a uma entidade associativa no modelo ER (Entidades Relacionamento). Eles devem estar listados em uma tabela de fatos lógicos. Cada medida possui suas próprias regras de agregação, como ADD, AVG, MIN ou MAX. As regras de agregação definem a maneira pela qual os negócios gostariam de contrastar os padrões de um valor medido. Tabelas de dimensões As tabelas de dimensões consistem em atributos que descrevem registros de fatos na tabela de fatos. Alguns desses atributos fornecem informações descritivas; outros são usados para especificar como os dados da tabela de fatos devem ser resumidos para fornecer informações úteis para a pessoa que está analisando as informações. Toda dimensão possui um conjunto de atributos descritivos. As tabelas de dimensões contêm atributos que descrevem entidades comerciais. Exemplo: A dimensão do cliente pode conter atributos como Cidade, Área, Estado, País, entre outros. Em uma tabela dimensional, as colunas podem ser usadas para categorizar as informações em níveis hierárquicos como na relação de Cidades e Estados. OLAP multidimensional Os Bancos de Dados e Data Warehouse modelados por dimensões, ou modelagem multidimensional, dão suporte ao OLAP, mas também podemos definir que essa modelagem multidimensional é desenvolvida na perspectiva ou de acordo com as técnicas do OLAP. OLAP (Online Analytical Processing), em português, significa Processamento Analítico On-line. Na computação, o OLAP é uma abordagem para responder rapidamente a consultas analíticas multidimensionais (MDA). O OLAP faz parte da categoria mais ampla de business intelligence, que também inclui banco de dados relacional, elaboração de relatórios e mineração de dados. Dependendo da tecnologia subjacente usada, o OLAP pode ser amplamente dividido em MOLAP e ROLAP. No mundo OLAP, existem, principalmente, dois tipos diferentes: OLAP multidimensional (MOLAP) e OLAP relacional (ROLAP). Existem outros tipos de classificações para esse grupo de conceitos como o OLAP híbrido (HOLAP) é uma combinação de MOLAP e ROLAP, bem como o DOLAP e outros. Para saber um pouco mais sobre os tipos de OLAP, veja: https://www.devmedia.com.br/conceitos-basicos-sobre-olap/12523 No MOLAP, a abordagem mais própria para a análise multidimensional, os dados são armazenados em um cubo multidimensional. Ele atende aos requisitos de um aplicativo https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.9hng3mc2hou https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.9hng3mc2hou https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.ofzuaeisi2yy https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.ofzuaeisi2yy https://www.google.com/url?q=https%3A%2F%2Fwww.devmedia.com.br%2Fconceitos-basicos-sobre-olap%2F12523&sa=D&sntz=1&usg=AOvVaw2qbbFKlPSA8BmGEFn5A-As analítico, no qual você precisa acessar apenas o nível resumido dos dados. O armazenamento não está no banco de dados relacional, mas em formatos proprietários. Independentemente das técnicas utilizadas para realizar a modelagem, o resultado na análise poderá ser o mesmo, o que vai mudar são as questões de organização dos dados, os tipos de consultas feitas, o desempenho, as ferramentas suportadas e outras características da utilização desse volume de dados. OLAP O OLAP (Online Analytical Processing) é uma tecnologia usada para criar software de suporte à decisão e é a técnica preferida dentro do BI. O OLAP permite que os usuários do aplicativo analisem rapidamente as informações que foram resumidas em visões e hierarquias multidimensionais. Ao resumir as consultas previstas em visualizações multidimensionais antes do tempo de execução, as ferramentas OLAP oferecem o benefício de maior desempenho sobre as ferramentas tradicionais de acesso ao banco de dados. A maior parte do cálculo intensivo de recursos necessário para resumir os dados é feita antes do envio de uma consulta. https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.4ck58pvaxggm https://www.sites.google.com/ulbra.br/G000077GS001/t002#h.4ck58pvaxggm Conceitos básicos de OLAP OLAP é um conceito utilizado em banco de dados que foram otimizados para consultas e descrições, em vez de apenas processar transações. Os dados OLAP são extraídos de dados históricos e agregados em estruturas que permitem análises complexas. Os dados no OLAP também são organizados hierarquicamente e colocados em cubos em vez de tabelas. É uma tecnologia sofisticada que beneficia estruturas multidimensionais para fornecer acesso rápido aos dados para análise. Essa associação facilita que um relatório de Tabela Dinâmica ou Gráfico Dinâmico mostre resumos de alto nível, como, por exemplo, o total de vendas em uma região inteira, e também mostre os detalhes dos locais em que as vendas acontecem com maior frequência. Os bancos de dados OLAP contêm dois tipos básicos de dados: as medidas, que são dados numéricos, as quantidades e médias que você usa para tomar decisões corporativas informadas, e dimensões, que são as categorias que você usa para coordenar essas medidas. Os bancos de dados OLAP ajudam a coordenar os dados por vários níveis de detalhes, utilizando as categorias idênticas que você conhece para analisar os dados. A figura do Cubo OLAP a seguir ilustra como podemos entender as vendas realizadas de determinados produtos através das dimensões de período e território. Componentes do OLAP Detalhadamente, os componentes do cubo possuem nomenclaturas específicas. Vamos conceituar as principais para um melhor entendimento. O Cubo é uma estrutura de dados que agrega as medidas pelos níveis e hierarquias de cada uma das dimensões que você deseja analisar. Os cubos combinam algumas dimensões, como tempo e geografia, com dados resumidos, como vendas ou números de estoque. A medida, é um conjunto de valores em um cubo que se baseia em uma coluna na tabela de detalhes do cubo e que geralmente são tipos numéricos. Medidas são os valores centralizados no cubo que são pré-processados, agregados e analisados. O Membro, é um item em uma hierarquia que compreende uma ou mais ocorrências de dados. Um membro pode ser único ou não exclusivo. Já o Membro calculado é um membro de uma dimensão cujo valor é calculado em tempo de execução, utilizando uma expressão. Por exemplo, um membro calculado como Lucro pode ser determinado subtraindo o valor do membro, despesas, do valor do componente, receitas. A Dimensão: um conjunto de uma ou mais hierarquias organizadas de níveis em um cubo que um usuário entende e beneficiacomo base para análise de dados. Por exemplo, uma dimensão geográfica pode incluir níveis para País/Região, Estado/Província e cidade etc. Hierarquia: uma estrutura em árvore lógica que organiza os membros de uma dimensão, de modo que cada membro tenha um membro pai e nenhum ou mais membros filhos. Um membro filho é um membro no próximo nível inferior em uma hierarquia que está exatamente relacionada ao membro atual. Um exemplo de hierarquia de tempo, contendo as notas trimestral, mensal e diária é o mês de junho, um membro filho do segundo trimestre. Um pai é um membro no próximo nível superior em uma hierarquia que está exatamente relacionada ao membro atual. Por exemplo, em uma hierarquia de tempo que contém as notas Trimestral, Mensal e Diária, o primeiro Trimestre é o pai do mês de janeiro. Por fim, o Nível, dentro de uma hierarquia. Os dados podem ser organizados em níveis de detalhes menores e mais altos, como ano, trimestre, mês, semana e dia, em caso de hierarquia de tempo. Para um melhor detalhamento do OLAP e seus componentes, podemos consultar o link: https://www.guru99.com/online-analytical-processing.html. https://www.google.com/url?q=https%3A%2F%2Fwww.guru99.com%2Fonline-analytical-processing.html&sa=D&sntz=1&usg=AOvVaw3RhktLOgJdlunMfoa5Zl_t https://www.google.com/url?q=https%3A%2F%2Fwww.guru99.com%2Fonline-analytical-processing.html&sa=D&sntz=1&usg=AOvVaw3RhktLOgJdlunMfoa5Zl_t Infográfico FERRAMENTAS, SISTEMAS COMPUTACIONAIS PARA A INTELIGÊNCIA EMPRESARIAL. Prof. Vinícius Silveira Magnus Neste capítulo, você vai aprender A compreender como funcionam os recursos computacionais para Inteligência Empresarial; A conhecer os principais recursos computacionais para Inteligência Empresarial; A escolher a ferramenta ideal para cada processo de Inteligência Empresarial. Introdução Quando desejamos trabalhar com Business Intelligence necessitamos conhecer as ferramentas tecnológicas disponíveis para podemos escolher a qual mais de adapta a nosso ambiente. Em uma simples pesquisa na internet, nos deparamos com uma gama enorme de recursos, que vão desde ferramentas para coleta de dados nas nossas fontes de dados, em nossos Data Sources, a fim de carregá-los no Data Warehouse; ferramentas para organizar e estruturar nosso Data Warehouse; ferramentas para análise de dados ou ferramentas para relatórios e acesso ao usuário. As mais diversas soluções estão disponíveis, mas quando pesquisamos podemos perceber que a maioria delas estão na camada de análise de dados e relatório, ferramentas comuns aos profissionais de BI, pois os Data Sources e o Data Warehouse ficam na maioria dos casos sobre responsabilidades do departamento de tecnologia (BI também é uma área tecnológica, mas multidisciplinar, onde existem profissionais de todas as formações). Cabe a nós conhecermos um pouco de cada, incluindo suas características, seus principais recursos, benefícios, integrações, a fim de se conhecer a formas de trabalho com os dados e informações de cada uma delas. Isso é importante tanto quando precisamos escolher um recurso que iremos utilizar como para compreender a variedade de recursos disponíveis ao profissional de BI. Ferramentas de Business Intelligence As ferramentas de business intelligence (BI) são tipos de software de aplicativo que coletam e processam grandes quantidades de dados não estruturados de sistemas internos e externos, incluindo diversas fontes como sistemas de vendas, estoque, logística, recursos humanos e outros. Embora não sejam tão flexíveis e acessíveis a todos usuários quanto às ferramentas de análise de negócios, as ferramentas de BI proporcionam uma forma mais detalhada se se analisar dados para encontrar informações, principalmente por meio de consultas. Essas ferramentas auxiliam na preparação de dados para análises, possibilitando a criação de relatórios, painéis e visualizações de dados. Os resultados dão aos usuários em geral o poder de acelerar e aprimorar as tomadas de decisões, aumentar a eficiência operacional, localizar potenciais de receita, identificar as tendências do mercado, apontar novas oportunidades de negócios e outras situações que as informações possam auxiliar. Normalmente utilizadas para consultas e relatórios mais simples e diretos de dados comerciais, as ferramentas de business intelligence podem combinar um vasto conjunto de aplicativos de análise de dados, incluindo consultas e análises ad hoc, relatórios empresariais, processamento analítico online (OLAP), BI móvel, BI em tempo real, BI operacional, nuvem e software como BI de serviço, BI de software livre, BI colaborativo e inteligência de localização. Elas também podem incluir software de visualização de dados para a criação de gráficos, bem como ferramentas para criação de painéis de BI e tabelas de desempenho que exibem as métricas e dados do negócio para proporcionar informações essenciais à empresa de uma forma simples. Softwares e plataformas para BI Em um levantamento de recursos em sites especializados em assuntos como BI ou em uma simples busca no Google, podemos encontrar uma enorme variedade de ferramentas analíticas de BI, ou assuntos relacionados. Em suma, as ferramentas possuem uma finalidade bem similar, que passa por analisar uma série de dados previamente organizados a fim de encontrar informações que possam contribuir para o processo de gestão em uma organização. Essas ferramentas em sua grande maioria já oferecem suporte à elaboração e relatório dos mais variados tipos e uma série de integrações com outros softwares, especialmente com os repositórios de dados, os Data Warehouse ou outras bases de dados da organização, incluindo os Data Marts e bases de dados comuns. Se observarmos a Figura 1, podemos perceber que as ferramentas aqui abordadas ficam mais presentes nas camadas de Ferramentas Analíticas e de Acesso ao Usuário, porém mencionaremos algumas de armazenamento e organização de dados, que estão mais presentes na camada dos Data Sources e do Data Warehouse. Arquitetura do Business Intelligence. https://www.sites.google.com/ulbra.br/G000077GS001/t003#h.msz14v7q74rs https://www.sites.google.com/ulbra.br/G000077GS001/t003#h.msz14v7q74rs Ferramentas Analíticas e de Acesso ao Usuário Vamos agora listar os principais softwares de alto nível disponíveis em mercado, e quando falamos de alto nível nos referimos aos softwares de fácil uso, não necessitando conhecimento amplos e específicos em programação de computadores e armazenamento de dados. Porém, para extrair ao máximo os recursos disponibilizados por algumas plataformas, se faz necessário algum conhecimento de linguagem como R, Python, SQL ou outras específicas para cada ambiente. Esses softwares atuam diretamente nas camadas de análise de dados e acesso ao usuário e fornecem subsídios para as conexões diretas com as inúmeras fontes de dados, nossos Data Sources ou conexões com o Data Warehouse, facilitando, assim, a análise de dados, além de fornecer suporte à elaboração de relatório dos mais variados tipos. Aqui abordaremos os recursos de alto nível disponíveis a profissionais de qualquer área que queria utilizá-los em seu dia a dia ou mesmo aprender para ampliar o conhecimento na área de BI e análises de dados. Iremos listar as principais características e disponibilizar os links dos sites oficiais para uma maior consulta por todos. São eles: IBM Watson Analytics Também conhecido como IBM Cognos Analytics, é a plataforma da IBM que atua desde a coleta até os relatórios finais. Esse tipo de ferramenta funciona muito bem, pois possui uma arquitetura de serviços completa, que se integra a uma série de outros recursos disponíveis. Site oficial: https://www.ibm.com/br-pt/analytics/business-intelligence Microsoft Power BI Uma das ferramentas maisutilizadas na atualidade, falaremos mais sobre ela no decorrer do capítulo por sua importância para o profissional de BI. Site oficial: https://powerbi.microsoft.com/pt-br/ Google Cloud - Análise de Dados A Google Cloud disponibiliza a usuários de diversas áreas inúmeras ferramentas dentre elas: Google Data Studio Site oficial: https://datastudio.google.com Looker Site oficial: https://cloud.google.com/looker Ambam tecnologias fazem parte da suíte de ferramentas disponibilizadas através do Google Cloud, a nuvem de serviços da Google: Site oficial: https://cloud.google.com/products#data-analytics https://www.google.com/url?q=https%3A%2F%2Fwww.ibm.com%2Fbr-pt%2Fanalytics%2Fbusiness-intelligence%3F&sa=D&sntz=1&usg=AOvVaw1o81m1s2uATvzJRUpz6fJV https://www.google.com/url?q=https%3A%2F%2Fpowerbi.microsoft.com%2Fpt-br%2F&sa=D&sntz=1&usg=AOvVaw24QfrLDKvN1yZ6ue_DSsKt https://datastudio.google.com/ https://datastudio.google.com/ https://cloud.google.com/looker https://cloud.google.com/products#data-analytics Amazon (AWS) QuickSight Ferramenta da Amazon, gigante da área tecnológica que possui uma série de ferramentas em sua nuvem, a chamada AWS (Amazon Web Services). O QuickSight oferece uma série de recursos de integração a outros sistemas, especialmente ao da AWS, sendo possível integrar de maneira muito fácil aos serviços de Machine Learnig, que pode fazer predições e análise de dados de maneira automática na plataforma. Esse serviço chama-se Amazon QuickSight ML Insights. Site oficial: https://aws.amazon.com/pt/quicksight/ BIRT O Business Intelligence and Reporting Tools Project é um projeto de software de código aberto que fornece a plataforma de tecnologia para criar visualizações de dados e relatórios que podem ser incorporados outros softwares. É um projeto de software Eclipse Foundation, um consórcio independente sem fins lucrativos de fornecedores da indústria de software e uma comunidade de código aberto. Atualmente é patrocinado pela Actuate juntamente com contribuições da IBM e Innovent Solutions. O BIRT é suportado por uma comunidade ativa de usuários aqui no Eclipse.org e no BIRT Developer Center. É licenciado sob a Eclipse Public License (EPL). Site oficial: https://www.eclipse.org/birt/ Jaspersoft É um software que gerar relatório hospedamos em nuvem e permite ao usuário criar layouts com gráficos, tabelas, imagens, vídeos e outros recursos visuais. Ela tem integração com alguns recursos na plataforma própria, e disponibiliza alguns recursos para a análise de dados de fontes internas e externa. Site oficial: https://www.jaspersoft.com/ Adobe Analytics É a plataforma de análise de dados da Adobe, voltada para o universo web (sites), ela provê uma análise em tempo real de dados coletados de usuário. É mais voltada aos profissionais do marketing e é considerada por muitos a melhor ferramenta de análise web do mercado. Site oficial:https://www.adobe.com/br/analytics/adobe-analytics.html Pentaho O Pentaho é um software utilizado na área de Business Intelligence que oferece, principalmente, soluções nas áreas de integração das fontes de dados (ETL), relatórios, análises online (OLAP – Online Analytical Processing) e mineração de dados. Ele é preferido em muitas organizações por trabalhar diretamente com o Big Data, por ser open source (código aberto) e pela facilidade de interação em diversos ambiente de tecnologia de organizações. Site oficial: http://www.pentaho.com https://www.google.com/url?q=https%3A%2F%2Faws.amazon.com%2Fpt%2Fquicksight%2F&sa=D&sntz=1&usg=AOvVaw3y8nI1UkugwPyXHz-V4ymA https://www.google.com/url?q=https%3A%2F%2Fwww.eclipse.org%2Fbirt%2F&sa=D&sntz=1&usg=AOvVaw3WGypHvlMiWaE0CUMy1e7Y https://www.google.com/url?q=https%3A%2F%2Fwww.jaspersoft.com%2F&sa=D&sntz=1&usg=AOvVaw0-BFqTtsCubbEZ7wKumfGe https://www.google.com/url?q=https%3A%2F%2Fwww.adobe.com%2Fbr%2Fanalytics%2Fadobe-analytics.html&sa=D&sntz=1&usg=AOvVaw2ieFyRpZg-y_2fVTG_kZiA http://www.google.com/url?q=http%3A%2F%2Fwww.pentaho.com&sa=D&sntz=1&usg=AOvVaw3YnRLwkIQAjqhAjrjE4PcB RStudio RStudio é um ambiente de desenvolvimento integrado (IDE) para a linguagem de R, que é voltada à manipulação, análise e visualização de dados. Ele dá suporte à execução direta dos código desenvolvidos no ambiente pelo usuários e programadores, bem como disponibiliza ferramentas para tratamento, organizações e relatórios das informações extraídas. Site oficial: https://rstudio.com/ Microsoft Power BI O Microsoft Power BI é considerado pela Gartner Group, a principal ferramenta de mercado para o uso quando falamos em plataformas para análise e business intelligence, ela é uma plataforma de ferramentas que abrangem uma variedade de aplicativos e serviços baseados em nuvem que ajudam as organizações a agrupar, gerenciar e analisar dados de uma variedade de fontes, por meio de uma interface amigável. A ferramenta é utilizada para construir relatórios e encontrar tendências, padrões e outras informações com base nos dados de uma empresa. O Power BI pode se conectar a uma ampla variedade de conjuntos/fontes de dados e estruturas as informações para que possam ser melhor analisadas e compreendidas. A Microsoft Power BI consiste basicamente em um conjunto de três ferramentas principais: Um aplicativo de desktop que funciona no sistemas operacional Windows chamado Power BI Desktop; Um serviço SaaS (software como serviço) online chamado de serviço do Power BI; Aplicativos móveis do Power BI para dispositivos Windows, iOS e Android. https://www.sites.google.com/ulbra.br/G000077GS001/t003#h.e0j2a2ogbwe3 https://www.sites.google.com/ulbra.br/G000077GS001/t003#h.e0j2a2ogbwe3 Ferramentas de Data Source e Data Warehouse Muitas das ferramentas que trabalham diretamente na análise de dados e na produção de relatórios finais e acesso ao usuário também dão suporte às atividades de coleta de dados nas diversas fontes de dados, os Data Sources, e de organização dos mesmo dentro de uma local único, o Data Warehouse. Essas ferramentas muitas vezes são soluções implementadas especificamente para a empresa, pois estão ligadas diretamente aos sistemas computacionais existente, como um e-commerce, um sistema de estoque, logística, vendas, financeiros, de relacionamento com o cliente (CRM) ou qualquer outro. GESTÃO DO CONHECIMENTO Prof. Vinícius Silveira Magnus Neste capítulo, você vai aprender. Os fundamentos da gestão do conhecimento; A reconhecer os objetivos da gestão do conhecimento; O processo de transformação de dados em conhecimento; A identificar as etapas do processo de gestão do conhecimento; As áreas que envolvem a gestão do conhecimento. Introdução Se entendermos a Inteligência Empresarial (BI) como o processo de suporte aos negócios através da coleta, organização, análise, compartilhamento e monitoramento de informações, entenderemos que ela é um item do guarda-chuva da Gestão do Conhecimento. Quando utilizamos esses dados e informações trabalhadas no BI a fim de gerar um valor significativo para a organização, podemos dizer que estamos transformando a informação em conhecimento. O BI é um processo orientado por tecnologias que analisam dados e entregam informações que auxiliam os representantes da organização a tomar decisões para seus negócios. O processo de elevar a informação a um nível mais alto, ou seja, inseri-la em um contexto organizacional, relacioná-la com as decisões da organização, com a geração de vantagens competitivas, com inovação e outros temas, pode ser o início da relação entre a gestão da Inteligência Empresarial com a Gestão do Conhecimento. Fundamentos da Gestão do conhecimento A gestão do conhecimento, proveniente do termo em inglês “Knowledge Management” (KM), é o processo de aquisição, organização, armazenamentoe disseminação de informações dentro da organização. É um meio regular de gestão do conhecimento, a fim de atender necessidades dos clientes, explorar novas oportunidades e melhorar o desempenho organizacional. As etapas nesse processo incluem como o conhecimento é capturado, avaliado, limpo, armazenado, fornecido e usado. Envolve a criação e a utilização do conhecimento organizacional coletivo disponível. Em uma organização, a gestão do conhecimento inclui desde o aprendizado sobre as necessidades e desejos do cliente, até a disseminação e uso do conhecimento dentro da organização. Além disso, na gestão do conhecimento, as práticas geralmente envolvem examinar, preservar e organizar as experiências do cliente com o objetivo principal de compartilhar o conhecimento adquirido e armazenado para que os colaboradores utilizem no decorrer dos processos em uma organização. Alguns autores apontam que essa conversão de conhecimento, aquisição de conhecimento e aplicação de conhecimento são ingredientes necessários na gestão do conhecimento nas organizações. Portanto, a capacidade de gestão do conhecimento diz respeito também aos procedimentos de gestão das organizações. https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.z0833vjl3q5q https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.z0833vjl3q5q O conhecimento pertence à classe de ativos organizacionais, como estrutura de gestão, identidade da marca e reputação corporativa. O conhecimento é um bem humano, e o valor do conhecimento aumenta quando tem um propósito-chave e se concentra nos valores essenciais e estratégicos das prioridades da organização. Isso inclui o desenvolvimento das habilidades e capacidades dos funcionários da organização e contribui para a forma em que a organização irá adquirir e armazenar informações disponíveis nas pessoas e nos processos. A gestão eficaz do conhecimento das organizações exigirá uma mistura adequada de esquemas organizacionais, sociais e gerenciais em combinação com o uso de tecnologia. Assim, a gestão do conhecimento requer que as organizações envolvam um esforço concentrado em adquirir conhecimento apropriado e útil, e fornecê-lo aos funcionários da organização para alcançar o desempenho ideal em suas atividades. Um requisito básico para a aplicação da gestão do conhecimento é a predisposição para implementar os componentes de infraestrutura necessários para apoiar a aquisição, transferência e gerenciamento do conhecimento na organização. Esses componentes devem ter sinergia entre si e devem estar ancorados em processos, tecnologia e pessoas. Alguns estudos apontam que dentre as razões pelas quais algumas empresas "não sabem o que sabem", é devido à falta de abordagens modernas na gestão do conhecimento, observando que as estruturas para a gestão do conhecimento não são efetivamente aplicadas e os processos são, na maioria dos casos, não totalmente conhecidos. A aptidão para gerenciar o conhecimento parece essencial na atual economia do conhecimento. Mais uma vez, criar e difundir o conhecimento é mais importante do que nunca. A organização precisa se desenvolver constantemente e aumentar seus bancos de conhecimento para facilitar a disseminação e uso de tal conhecimento dentro da organização para alcançar vantagens competitivas. Os benefícios acumulados para as organizações por meio da gestão do conhecimento não apenas facilitam a colaboração na inovação da organização e de seus processos, mas também envolve buscar lacunas em seu banco de dados de conhecimento e oferecer soluções para eles. Além disso, a gestão do conhecimento incentiva uma inovação baseada na chamada cultura do conhecimento, que resulta em melhor desempenho. Gestão do conhecimento é proteger ativos intelectuais, buscar oportunidades para melhorar as decisões e seus produtos de forma inteligente, aumentando o valor agregado e proporcionando uma melhoria constante na empresa. Objetivos da Gestão do Conhecimento Podemos encontrar nas diversas literaturas muitos objetivos da gestão do conhecimento. Para nosso estudo, vamos estruturá-los em sete objetivos principais: Gerando novos conhecimentos; Acessando conhecimento valioso de fontes externas; Usar conhecimento acessível na tomada de decisões; Incorporar conhecimento em processos, produtos e/ou serviços. Representar conhecimento em documentos, bancos de dados e software; Facilitar o crescimento do conhecimento por meio de cultura e incentivos. Transferência de conhecimento existente para outras partes da organização; Medir o valor dos ativos de conhecimento e/ou impacto do conhecimento de gestão. https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.n34osm4eecag https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.n34osm4eecag Transformação do conhecimento Na hierarquia de dados, informações e conhecimento, os métodos computacionais e de Business Intelligence (BI) desempenham um papel importante no processamento inicial de dados para extrair informações a partir de seus, e dão suporte para a transformação em conhecimento. https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.en8r0ovdbeoy https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.en8r0ovdbeoy Processo de Gestão do Conhecimento A gestão do conhecimento é o processo caracterizado por etapas. Podemos caracterizar, dentre a literatura existente, a descrição de diversas formas, onde o conhecimento desse processo é utilizado dentro de uma organização para alcançar um melhor desempenho e utilizando de melhores práticas como consequência da execução desse processo. Dentre as visões mais comuns na literatura de gestão do conhecimento, podemos citar a presença mais clara de quatro etapas, conforme relata a Figura 2. As etapas são, na maioria dos casos, sequenciais e cíclicas. Etapa de aquisição: aquisição de dados ou informações aborda as questões relativas às fontes de Materiais "brutos", como escopo, amplitude, profundidade, credibilidade, precisão, oportunidade, relevância, custo, controle e exclusividade. O princípio orientador é o conhecido ditado de "entra lixo, sai lixo". Ou seja, os dados de origem devem ser da mais alta qualidade; caso contrário, os produtos intelectuais produzidos adiante serão inferiores. Algumas atividades dessa etapa: Atividades de Criação de Conhecimento: é um processo dinâmico, multidimensional e complexo. É a capacidade de uma organização de formular e circular conhecimento em seus serviços, produtos e sistemas; Atividades de Captura de Conhecimento: é o processo que envolve a criação de novos conteúdos e substituição dos existentes. É necessário que as organizações capturem tanto o conhecimento explícito quanto o implícito. Etapa de organização/armazenamento: a organização ou armazenamento forma uma ponte entre as atividades de aquisição que alimentam o repositório e a utilização. O armazenamento pode ser físico (pastas de arquivos, informações impressas) ou digitais (banco de dados, software de gestão do conhecimento). Algumas atividades dessa etapa: Atividades de Organização do Conhecimento: está associado ao processo de compartilhamento do conhecimento e também indica a estrutura, listagem e modelagem do conhecimento. Existem três fases envolvidas no processo de organização do conhecimento, a saber: seleção e avaliação, organização e “remoção” ou re-seleção; Atividades de Armazenamento de Conhecimento: a criação de novos conhecimentos não é suficiente, ter mecanismo para armazenar e recuperar o conhecimento quando necessário é mais importante. Isso deu origem ao conceito de memória de organização, que simplesmente significa a existência de conhecimento em várias estruturas e formatos. Etapa de distribuição: distribuição descreve comoo produto é entregue ao usuário final e abrange não só o meio de entrega, mas também o seu tempo, frequência, forma, idioma e assim por diante. Algumas atividades dessa etapa: Atividades de Disseminação de Conhecimento: também conhecido como compartilhamento de conhecimento, é definido como o processo de transferência de conhecimento entre indivíduos, grupos ou organizações por meio de diversos meios ou canais de comunicação. Etapa de uso: a etapa final é a apresentação ou uso. É nessa fase que o contexto desempenha um papel importante. A eficácia de cada uma das etapas anteriores de valor agregado é avaliado aqui: o usuário tem contexto suficiente para ser capaz de fazer uso desse conteúdo? Caso contrário, o ciclo da gestão do conhecimento falhou em entregar valor ao indivíduo e, em última análise, para a organização. Algumas atividades dessa etapa: Atividades de Aplicação do Conhecimento: o ponto essencial na gestão do conhecimento é garantir que o conhecimento seja aplicado de forma produtiva para o lucro da organização. A aplicação do conhecimento inclui a aplicação da ação do conhecimento, a resolução de problemas e a proteção da tomada de decisões que podem, em última instância, resultar na criação do conhecimento. Para um aprofundamento no processo de construção do conhecimento e suas etapas, sugerimos a leitura do artigo dos autores Rodrigo Gonzalez e Manoel Fernando Martins publicado na revista Scielo. https://doi.org/10.1590/0104-530x0893-15. Áreas da Gestão do Conhecimento Alguns autores trazem o processo de gestão do conhecimento dividido em algumas áreas. Estas são a divisão de algumas abordagens, onde, nesse sentido, podemos descrevê-las como: Inteligência Competitiva; Educação Corporativa; Gestão de Competências; Gestão do Capital Intelectual; Gestão da Informação; Aprendizagem Organizacional. Podemos entender que as etapas e atividades da gestão do conhecimento envolvem conceitos de diversas áreas e disciplinas, e que também envolvem profissionais de todas as áreas da organização como tecnologia e gestão. O desafio de se fazer gestão do conhecimento nos dias atuais é cada vez maior, pois necessitamos de pessoas envolvidas, profissionais capacitados, estruturas organizacionais e tecnológicas e amplo apoio dos gestores da organização. https://www.google.com/url?q=https%3A%2F%2Fdoi.org%2F10.1590%2F0104-530x0893-15&sa=D&sntz=1&usg=AOvVaw0sUlT-P3ZGJWY3TGHj4DxQ https://www.google.com/url?q=https%3A%2F%2Fdoi.org%2F10.1590%2F0104-530x0893-15&sa=D&sntz=1&usg=AOvVaw0sUlT-P3ZGJWY3TGHj4DxQ https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.g1l3169o8yqs https://www.sites.google.com/ulbra.br/G000077GS001/t004#h.g1l3169o8yqs GESTÃO DE DADOS PARA INTELIGÊNCIA EMPRESARIAL (DATA MINING, DATA WAREHOUSE, BIG DATA) Prof. Vinícius Silveira Magnus Neste capítulo, você vai aprender. Os principais conceitos de gestão de dados; O funcionamento de um Data Warehouse; A estrutura e importância de um Big Data; O processo de Data mining. Introdução Diversos temas relacionados à ciência de dados têm ganhado espaço nas organizações quando o assunto é a Inteligência Empresarial (Business Intelligence); mais especificamente, podemos citar a gestão de dados e seus aspectos relacionados. Podemos também entender que existe uma grande relação entre a ciência de dados e a gestão de dados ou informação, bem como o BI. A gestão de dados ou gestão da informação tem ganhado espaço devido aos desafios na gestão do bem maior das organizações de hoje, suas informações. Na base dessa gestão, estão os dados obtidos pela empresa, organizados e utilizados pela organização nos mais variados processos. Assim, surgem novas tecnologias, processos, ou novas visões de processos já existentes para se manipular os dados na organização, a fim de torná-los úteis na geração de diferenciais competitivos para a empresa, podendo ser esse o fator de sucesso quando bem trabalhado. A Gestão de Dados: Princípios e Fundamentos A gestão de dados é uma área que tem como objetivo gerenciar (coletar, manter e usar) todos os dados de uma organização, por entender que os dados são recursos valiosos que fazem parte do processo base para a tomada de decisão em uma organização. Os dados são hoje um dos recursos chave e é fator de sucesso de muitos negócios; é a partir deles que construímos informações e a partir de informações que construímos conhecimento. A gestão de dados constrói as sistemáticas para se trabalhar com os dados em uma organização, seja ela na coleta de dados das mais variadas fontes possíveis, seja na manutenção desses dados, organizando e estruturando os mesmos, seja ela na disponibilização desses dados ou no processo de coleta e organização. Gestão de Dados e Gestão da Informação O termo gestão de dados e gestão da informação são, em muitos casos, utilizados como sinônimos, alguns autores não fazem as distinções entre os mesmos. Podemos entender que a gestão da informação é o processo mais amplo, que lida de maneira direta com o processo de uso da mesma, enquanto a gestão de dados se refere ao processo mais tecnológico e sistemático de coleta e organização desses dados. https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.zd3vhjr4oc9l https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.zd3vhjr4oc9l https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.t8hmmy5wdhf2 https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.t8hmmy5wdhf2 https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.6e6nml2jlgze O Business Intelligence e a Gestão de Dados Podemos fazer a relação de diversos temas entre a inteligência empresarial (vista como BI) e a gestão de dados ou informações. Dentre todos eles, podemos destacar três temas: o primeiro é o mais ligado à arquitetura tradicional do BI propriamente dito, o Data Warehouse; o segundo relacionado às altas demandas de tecnologia para suportar o volume de dados produzidos atualmente, o Big Data; e, por fim, o processo de se trabalhar e explorar esses dados armazenados e estruturados no Data Warehouse e no Big Data, esse processo é o Data Mining. Data Warehouse O Data Warehouse é, de forma resumida, um local centralizado na organização que armazena os dados de todos os sistemas em um local único. Esses dados são organizados de maneira a promover e facilitar a organização, padronização e consultas, tornando o processo de tomada de decisão sustentado por dados e informações. Os dados centralizados em um Data Warehouse são provenientes dos Data Sources, que são a base de dados específicos de cada sistema ou qualquer outro tipo de dados, como planilhas, catálogos, relatórios de outros sistemas. Quando os dados são estratificados dessa base de dados central a fim de organizar os mesmos para análises especiais para cada área, por exemplo, vendas, estoque ou logística, essas bases menores e focadas são chamadas de Data Marts. Como já exploramos esse assunto no Tema 1 de nossa disciplina, podemos recorrer a ele ou aprofundarmos um pouco mais com a leitura do texto da Oracle na página abaixo: https://www.oracle.com/br/database/what-is-a-data-warehouse/ Big Data Fonte: Pixabay: O termo Big Data tem sido utilizado nas ciências para se referir ao conjunto de grandes volumes de dados, grandes o suficiente para exigir supercomputadores, embora agora grandes conjuntos de dados possam ser analisados em computadores pessoais com a utilização de software modernos. Não há dúvida de que as quantidades de dados disponíveis no momento são realmente grandes, mas essa não é a característica mais relevante para a estrutura, onde o Big Data é notável não por causa de seu tamanho, mas por causa de seu relacionamento com uma série de outros dados relacionados. Devido aos esforçospara minerar (analisar) e agregar dados, o Big Data é fundamentalmente conectado em rede, ou seja, os dados possuem relações entre si. Seu valor vem dos padrões que podem ser derivados fazendo relações entre partes de dados, sobre um indivíduo, sobre indivíduos em relação a outros, sobre grupos de pessoas ou simplesmente sobre a própria estrutura da informação. https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.iilk7g9bd6jm https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.iilk7g9bd6jm https://www.google.com/url?q=https%3A%2F%2Fwww.oracle.com%2Fbr%2Fdatabase%2Fwhat-is-a-data-warehouse%2F&sa=D&sntz=1&usg=AOvVaw3AlPLu7ApR4GP93hiBrmES https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.ho41bcji8l3q https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.ho41bcji8l3q https://www.google.com/url?q=https%3A%2F%2Fpixabay.com%2Fpt%2Fphotos%2Fdados-teclado-mouse-big-data-4151152%2F&sa=D&sntz=1&usg=AOvVaw1tutZJtOTjKCB6lz4MclW4 https://www.google.com/url?q=https%3A%2F%2Fpixabay.com%2Fpt%2Fphotos%2Fdados-teclado-mouse-big-data-4151152%2F&sa=D&sntz=1&usg=AOvVaw1tutZJtOTjKCB6lz4MclW4 Para saber um pouco sobre a história do Big Data, leia o artigo Big Data: Definição e Um Breve Histórico. Os Vs do Big Data Quando o termo Big Data foi evoluindo, sua estrutura começou a ganhar alguns significados de características que inicialmente foram chamadas de 3 V's, depois 5 V's e até mesmo existem visões que trazem 7 V's. Vamos abordar neste estudo as características do Big Data em torno de 5 V's, que são: volume, variedade, velocidade, veracidade e valor. Volume: as definições de volumes de big data são relativas e variam por fatores, como tempo e tipo de dados. O que pode ser considerado big data hoje pode não atingir o limite no futuro porque as capacidades de armazenamento irão aumentar, permitindo que conjuntos de dados ainda maiores sejam capturados. Além disso, o tipo de dados, discutido em variedade, define o que se entende por “grande”. Dois conjuntos de dados do mesmo tamanho podem exigir diferentes tecnologias de gerenciamento de dados com base em seu tipo, por exemplo, dados em texto ou dados de vídeo. Portanto, as definições de big data também dependem do setor, essas considerações tornam impraticável definir um limite específico para volumes de big data. Variedade: refere-se à heterogeneidade estrutural em um conjunto de dados. Os avanços tecnológicos permitem que as empresas usem vários tipos de dados estruturados, semiestruturados e não estruturados. Alguns estudos apontam que os dados estruturados constituem apenas 5% de todos os dados existentes, estes referem-se aos dados tabulares encontrados em planilhas ou bancos de dados relacionais. Texto, imagens, áudio e vídeo são exemplos de dados não estruturados, que às vezes carecem da organização estrutural exigida pelas máquinas para análise. Um alto nível de variedade, uma característica definidora do big data, não é necessariamente novo. As organizações têm acumulado dados não estruturados de fontes internas (por exemplo, dados de sensores) e fontes externas (por exemplo, mídia social). No entanto, o surgimento de novas tecnologias e análises de gerenciamento de dados, que permitem às organizações alavancar os dados em seus processos de negócios, é o aspecto inovador. Por exemplo, as tecnologias de reconhecimento facial capacitam os varejistas tradicionais a adquirir inteligência sobre o tráfego da loja, a idade ou composição de gênero de seus clientes e seus padrões de movimento na loja. Essas informações valiosas são alavancadas nas decisões relacionadas a promoções, posicionamento de produtos e pessoal. Outros exemplos são os dados do fluxo de cliques em um web site, que fornecem uma riqueza de informações sobre o comportamento do cliente e padrões de navegação para varejistas on-line. Velocidade: refere-se à taxa em que os dados são gerados e a velocidade em que devem ser analisados e executados. O crescimento da quantidade de dispositivos digitais, como smartphones e sensores, levou a uma taxa sem precedentes de criação de dados e está levando a uma necessidade crescente de análises em tempo real e planejamento baseado em evidências. Mesmo os varejistas convencionais estão gerando dados de alta frequência, o Wal-Mart, por exemplo, processa mais de um milhão de transações por hora. Os dados que são gerados a partir do uso de dispositivos móveis e fluem por meio de aplicativos móveis produzem uma série de informações que podem ser usadas para https://www.google.com/url?q=https%3A%2F%2Fmedium.com%2F%40stratiobd%2Fbig-data-defini%25C3%25A7%25C3%25A3o-e-um-breve-hist%25C3%25B3rico-a389abcf6a3&sa=D&sntz=1&usg=AOvVaw25VAFR3y5ANwjh_3tsHfnr https://www.google.com/url?q=https%3A%2F%2Fmedium.com%2F%40stratiobd%2Fbig-data-defini%25C3%25A7%25C3%25A3o-e-um-breve-hist%25C3%25B3rico-a389abcf6a3&sa=D&sntz=1&usg=AOvVaw25VAFR3y5ANwjh_3tsHfnr https://www.google.com/url?q=https%3A%2F%2Fmedium.com%2F%40stratiobd%2Fbig-data-defini%25C3%25A7%25C3%25A3o-e-um-breve-hist%25C3%25B3rico-a389abcf6a3&sa=D&sntz=1&usg=AOvVaw25VAFR3y5ANwjh_3tsHfnr https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.3hqojpl24l8s https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.3hqojpl24l8s gerar ofertas personalizadas em tempo real para clientes diários. Esses dados fornecem informações confiáveis sobre os clientes, como localização geoespacial, dados demográficos e padrões de compra anteriores, que podem ser analisados em tempo real para criar valor real para o cliente. Dada a popularidade crescente dos smartphones, os varejistas em breve terão que lidar com centenas de milhares de fontes de dados que exigem análises em tempo real. Os sistemas de gerenciamento de dados tradicionais não são capazes de lidar com grandes feeds de dados instantaneamente. É aqui que as tecnologias de big data entram em jogo. Eles permitem que as empresas criem inteligência em tempo real a partir de grandes volumes de dados "perecíveis". Veracidade: ela representa a falta de confiabilidade inerente a algumas fontes de dados. Por exemplo, os sentimentos do cliente nas mídias sociais são incertos por natureza, uma vez que envolvem julgamento humano. No entanto, eles contêm informações valiosas. Assim, a necessidade de lidar com dados imprecisos e incertos é outra faceta do big data, que é tratada por meio de ferramentas e análises desenvolvidas para gerenciamento e mineração de dados incertos. Valor: ele representa os benefícios que os dados podem trazer para o negócio ou para o processo de análise, eles devem ajudar a organização a tomar suas decisões, direcionando suas ações com base nos dados coletados e analisados do Big Data. O valor representa o quão importante são os dados provenientes de todo o processo de coleta e o quanto eles podem se tornar útil dentro do processo decisório de uma organização, tanto para criar novos produtos e serviços, melhorar os já existente, direcionar uma campanha de vendas ou mesmo ajudar a melhorar um processo interno que trará benefícios ao negócio. Análise do Big Data Big data não vale nada sem sua análise. Seu valor potencial é perceptível apenas quando aproveitado para conduzir ao seu uso, como, por exemplo, na tomada de decisões. Para permitir essa tomada de decisão baseada em evidências, as organizações precisam de processos eficientes para transformar grandes volumes de dados diversos e de rápida movimentação em percepções significativas. O processo geral de extração de insights de big data pode ser dividido em cinco etapas, mostrado na Figura 1. Esses cinco estágios formam os dois subprocessos principais: gerenciamento e análise de dados. O gerenciamento de dados envolve processos e tecnologias de suporte para adquirir e armazenar dados e prepará-los e recuperá-los para análise. Já a análise, por outro lado, refere-se a técnicas usadas para analisar e adquiririnteligência de big data. Portanto, a análise de big data pode ser vista como um subprocesso no processo geral de tratamento do big data. https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.7zb286c510v2 https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.7zb286c510v2 Data Mining A mineração de dados é a prática de pesquisar automaticamente grandes armazenamentos de dados para descobrir padrões e tendências que vão além da simples análise. Ele usa algoritmos matemáticos sofisticados para segmentar os dados e avaliar a probabilidade de eventos futuros. Alguns termos importantes a saber antes de entrar em detalhes em Data Mining. Primeiramente, precisamos relembrar que trabalhamos em uma linha evolutiva com dados, informação e conhecimento. Dados são quaisquer fatos, números ou texto que podem ser processados por um computador. Hoje, as organizações estão acumulando grandes e crescentes quantidades de dados em diferentes formatos e bancos de dados. Os padrões, associações ou relacionamentos entre todos os tipos de dados podem fornecer informações. A informação pode ser convertida em conhecimento. Processo de descoberta de conhecimento é um processo que consiste em diversas etapas, elas podem ser subdivididas em: Limpeza de dados: refere-se ao ruído de remoção e dados inconsistentes; Integração de dados: nesta etapa, várias fontes de dados podem ser combinadas; Seleção de dados: nesta etapa, os dados relevantes para a tarefa de análise são recuperados do banco de dados; Transformação de dados: nesta etapa, os dados são transformados ou consolidados em formas apropriadas para mineração, executando operações de resumo ou agregação; Mineração de dados: este é um processo essencial onde métodos inteligentes são aplicados para extrair padrões de dados; Avaliação de padrões: esta etapa é usada para identificar os padrões verdadeiramente interessantes que representam o conhecimento com base em algumas medidas de interesse; Apresentação do conhecimento: nesta etapa, técnicas de visualização e representação do conhecimento são utilizadas para apresentar o conhecimento minerado ao usuário. A mineração de dados entra nesse processo procurando de forma inteligente padrões que darão significados maiores às relações que os dados possuem, como, por exemplo, um perfil de cliente que compra mais determinado produto. No Data Mining, dois métodos de mineração são amplamente difundidos para encontrar padrões ocultos em dados, são eles o agrupamento e a análise de classificação. Embora a classificação e o agrupamento sejam frequentemente citados na mesma linha, eles são avanços analíticos diferentes. Tipos de Data Mining Tipos de tarefas de mineração de dados. Dois tipos de tarefa de mineração de dados são: Métodos de previsão: este tipo de método usa alguma variável para prever valores desconhecidos ou futuros de outras variáveis; Métodos de descrição: este tipo de método encontra padrões interpretáveis por humanos que descrevem os dados. https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.jori75ydnvtq https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.jori75ydnvtq Aplicações do Data Mining Data Mining é um conceito relativamente novo que vem se transformando a cada dia, porém existem várias empresas que já o utilizam normalmente a muito tempo. Essas empresas estão usando mineração de dados para estatísticas, reconhecimento de padrões e outras tarefas importantes. A mineração de dados pode ser utilizada para encontrar padrões e associações que, de outra forma, seriam difíceis de encontrar. Esse conceito é popular com muitas empresas porque lhes permite descobrir mais sobre seus clientes e tirar informações comerciais importantes que irão auxiliar no processo decisório da empresa. A mineração de dados possui uma série de possíveis aplicações. Uma delas, bem comum, é chamada de segmentação de mercado. Com a segmentação de mercado, a organização poderá encontrar comportamentos que são comuns entre seus clientes. Ela pode procurar padrões entre os clientes que compram os mesmos produtos ao mesmo tempo. Outra aplicação da mineração de dados é chamada de rotatividade de clientes. Isso permitirá que as empresas calculem quais clientes têm maior probabilidade de parar de comprar seus produtos ou serviços e procurar um de seus concorrentes. Além disso, uma empresa pode usar a mineração de dados para descobrir quais compras têm maior probabilidade de serem fraudulentas, isso é muito comum em empresas de cartões de crédito, por exemplo. Outra linha é a utilização do data mining na prevenção de roubos, por exemplo, descobrir quais produtos são mais roubados; assim, medidas podem ser tomadas para proteger esses bens e observar quem os está roubando. Essa técnica é utilizada por departamentos de inteligência das polícias e também por seguradoras de carros e cargas. Outro exemplo de previsão automática é usar data mining para examinar seus esquemas de marketing anteriores. Qual funcionou melhor? Por que funcionou melhor? Quem foram os clientes que responderam de forma mais favorável? A mineração de dados permite que a empresa encontre essas respostas, podendo evitar cometer quaisquer erros que tenha cometido em sua negociação anterior. A mineração de dados pode permitir que você se torne melhor no que faz. Uma organização financeira, como um banco, pode prever o número de inadimplências que ocorrerão entre seus clientes em um determinado período e também pode prever a quantidade de fraude que ocorrerá com base na visão geral dos registros anteriores. https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.6i18z787jwga https://www.sites.google.com/ulbra.br/G000077GS001/t005#h.6i18z787jwga TÓPICOS CONTEMPORÂNEOS DE INTELIGÊNCIA EMPRESARIAL (BLOCKCHAIN, IOT, COMPUTAÇÃO EM NUVEM, INTELIGÊNCIA ARTIFICIAL) Neste capítulo, você vai aprender Os principais conceitos de Internet das Coisas, bem como sua arquitetura; Sobre inteligência artificial, sua evolução e suas principais aplicações nos dias atuais; A identificar os tipos de computação em nuvem, bem como os conceitos relacionados; Os fundamentos do blockchain e a sua importância. Introdução Existem uma série de temas relacionados à Inteligência Empresarial, na visão do Business Intelligence, que são de vital importância conhecermos quando estamos estudando os aspectos dessa disciplina. Por mais que as tecnologias sejam muitas e de vasto conteúdo, precisamos ao menos entender os principais conceitos e aspectos de cada uma delas. Alguns tópicos importantes que iremos abordar são a Internet das Coisas, que juntamente com a evolução da conectividade da Internet em relação às pessoas têm transformado a maneira de como geramos informação sobre tudo. Também veremos a Inteligência Artificial que tem a cada dia surpreendido e transformando o ambiente e a maneira que as organizações atuam no mercado. Outro aspecto importante é o entendimento da computação em nuvem, que modifica a forma de pessoas e organizações se relacionarem com a tecnologia, e por fim, o blockchain, uma tecnologia que surgiu em 2008, que sustenta as criptomoedas, em especial o bitcoin, e está modificando a maneira que as empresas se relacionam entre si, com suas transações e com suas informações. Tópicos de Inteligência Empresarial A relação das organizações e seus processos com novas tecnologias é fundamental para ela se manter no mercado. A cada dia surgem novas tecnologias e demandas tecnológicas que movimentam e modificam a forma de as empresas trabalhar, sendo essas mudanças muitas vezes oportunidades de se destacar no mercado, antecipando-se aos concorrentes e criando vantagens competitivas que irão levar a empresa a outro patamar. A inteligência empresarial (Business Intelligence) tem relação direta com o tratamento deinformações, seja ela na forma de coletar esses dados, seja ela como armazená-los e organizá-los, seja ela na sistemática de analisá-los ou mesmo no processo de uso. O fluxo de dados, informação e conhecimento durante esse processo, envolve muitos fatores, alguns deles estão modificando a forma de como entendemos esse processo, https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.ji6o5abheh6w https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.ji6o5abheh6w sendo alguns deles a Internet das coisas, a inteligência artificial, a computação em nuvem, o blockchain, e outras tecnologias. Iremos abordar aqui algumas das mais importantes para o profissional de inteligência empresarial conhecer. IoT – A Internet das Coisas Nos dias de hoje, a Internet está presente na vida da maioria das pessoas e das organizações, ela alcançou quase todos os cantos do globo e está afetando a vida humana de maneiras inimagináveis. No entanto, a jornada está longe de terminar e as evoluções continuam. Estamos entrando em uma era de conectividade ainda mais difundida, em que uma grande variedade de aparelhos será conectada à Internet. Estamos entrando na era da IoT (Internet das Coisas), um termo derivado do inglês Internet of Things. O termo foi definido em 1999, por Kevin Ashton do MIT, mas hoje ganha diversas definições e visões mais evoluídas. Alguns autores definem a Internet das Coisas simplesmente como uma interação entre os mundos físico e digital. O mundo digital interage com o mundo físico usando uma infinidade de sensores e atuadores. Outra linha de autores define a Internet das Coisas como um paradigma no qual as capacidades de computação e rede são embutidas em qualquer tipo de objeto. Usamos esses recursos para consultar o estado do objeto e alterar seu estado, se possível. De modo geral, a Internet das Coisas se refere a um novo tipo de mundo onde quase todos os dispositivos e aparelhos que usamos estão conectados a uma rede. Podemos usá-los de forma colaborativa para realizar tarefas complexas que exigem um alto grau de inteligência. Em linhas gerais, a Internet das Coisas possui uma estrutura de componentes distribuídos em três camadas conforme demonstrado na Figura 1: Os dispositivos (chamados também de devices) de IoT são equipados com sensores, atuadores, processadores, transmissores e receptores de dados. IoT não é uma tecnologia única; em vez disso, é uma aglomeração de várias tecnologias que funcionam juntas em conjunto. Sensores e atuadores são dispositivos que auxiliam na interação com o ambiente físico. Os dados coletados pelos sensores devem ser armazenados e processados de forma inteligente para derivar inferências úteis deles. O termo sensor é definido de forma ampla; um telefone celular ou mesmo um forno de micro-ondas pode contar como um sensor, desde que forneça informações, por exemplo a temperatura ou de umidade de um ambiente. Um atuador é um dispositivo usado para efetuar uma mudança no ambiente, como o controle de temperatura de um ar condicionado, podendo o atuador aumentar ou diminuir. Os dados podem ser armazenados e processados na própria extremidade da rede (no device) ou em um servidor remoto (chamado também de nuvem). Os dados processados são normalmente enviados para um servidor remoto. Os recursos de armazenamento e processamento de um objeto de IoT também são restritos pelos recursos disponíveis, que geralmente são muito restritos devido às limitações de tamanho, energia, potência e capacidade computacional. O mundo da Internet das coisas envolve diversos fatores, um dos principais desafios é garantir que obtenhamos o tipo certo de dados com o nível de precisão desejado e a https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.bj2n31lurwho https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.bj2n31lurwho velocidade necessária para tomarmos algumas ações. Junto com os desafios de coleta e tratamento de dados, também existem desafios na comunicação. A comunicação entre os dispositivos IoT é principalmente sem fio porque eles geralmente são instalados em locais geograficamente remotos. Agora, depois de processar os dados recebidos, alguma ação precisa ser realizada com base nas inferências derivadas. A natureza das ações pode ser diversa. Podemos modificar diretamente o mundo físico por meio de atuadores. Ou podemos fazer algo virtualmente. Por exemplo, podemos enviar algumas informações para outras coisas inteligentes. Aplicações de IoT. Dada a estrutura fornecida pelas tecnologias criadas em torno da Internet das Coisas ou mesmo com o uso de tecnologias existe com base no conceito de IoT, diversas aplicações são criadas e melhoradas a cada dia. Encontramos várias aplicações em sistemas de agricultura, saúde, esporte, educação, entretenimento, vida social, conservação de energia, monitoramento ambiental, automação residencial, transporte, entre outros. Fique de olho! Para descobrir um pouco mais sobre as aplicações de IoT, leia estes dois pequenos artigos: 6 aplicações de Internet das Coisas em sua rotina – TOTVS Internet das Coisas: o que é IoT e exemplos de onde podemos encontrá-la Inteligência Artificial A inteligência artificial (IA) tem se tornado assunto em diversas áreas do mercado. Organizações vêm buscando cada vez mais dominar o conteúdo para entender e aplicar em seus contextos. É cada vez mais comum os investimentos em IA, seja em pesquisa ou no desenvolvimento de produtos e serviços. A tecnologia tem ganhado a atenção pelos resultados trazidos e pelas expectativas do que ainda está por vir. Estudar IA é de vital importância para profissionais de todas as áreas, pois todos, de uma forma ou de outra, estamos sendo impactados pela IA, e nossa profissão (seja qual for) também é ou será impactada fortemente em um futuro muito próximo. Desde a criação dos computadores, esforços têm sido aplicados na tentativa de tornar o computador inteligente. Nos últimos anos, grandes empresas como Google, Microsoft, IBM, Facebook, Apple, entre outras, vêm anunciando pesquisas em torno de tecnologias com o uso de inteligência artificial (IA). A busca pela máquina inteligente parece algo um pouco distante se imaginarmos um mesmo computador capaz de realizar tudo que um ser humano faz e com a velocidade de processamento que uma máquina possui. As aplicações de IA de maior sucesso são pontuais e específicas. Elas estão por toda parte e a cada dia está mais presente no cotidiano das pessoas. Assistentes pessoais, https://www.google.com/url?q=https%3A%2F%2Fwww.totvs.com%2Fblog%2Finovacoes%2Faplicacoes-da-internet-das-coisas%2F&sa=D&sntz=1&usg=AOvVaw3MQWGqRq0JgGTNqagNUDzv https://www.google.com/url?q=https%3A%2F%2Finteligencia.rockcontent.com%2Finternet-das-coisas%2F&sa=D&sntz=1&usg=AOvVaw2YLaN8cnUiLmhrxTmUfmeb chatbots, carros autônomos, sistemas de recomendações de produtos e serviços, entre outros, são realidades em muitas tecnologias ao nosso redor, e a evolução tem sido cada dia mais rápida, em que novos estudos e pesquisas dão indícios das novas. Para chegarmos até este momento de utilização da tecnologia de IA, o caminho foi longo, de muita pesquisa, com tecnologias de sucesso e outras que ficaram pelo caminho, mas serviram de experiência e geraram muitos debates. Os primeiros relatos sobre inteligência artificial relacionadas à computação, surgiram antes mesmo da própria criação do primeiro computador. No ano de 1943, os cientistas Warren McCulloch e Walter Pitts escrevem um artigo falando pela primeira vez em redes neurais. Em 1956, o termo inteligência artificial foi estabelecido como uma área e se tornou um campo de pesquisa. Mas o termo ganhou força quando Alan Turing, cientista conhecido como pai da computação, propôs um teste, que ficou conhecido como teste de Turing, um método para validar se um sistema poderia ser considerado inteligente. Nasciaali uma nova era para a IA. Desse período em diante a IA ganhou força e aceitação. Até os anos 60, a IA tinha o objetivo de simular o pensamento humano para resolver problemas, nesse período algumas decepções aconteceram pela complexidade desse objetivo. Nos anos 70, o objetivo foi reduzido, onde era proposto que o computador pudesse resolver problemas específicos, usando a inteligência humana em determinada área, sendo a solução criada exclusivamente para aquele fim. Nos anos 80, as tentativas foram de criar soluções em uma determinada especialidade humana dentro de uma área, obtendo sucesso em algumas como diagnósticos médicos e sistema de concessão de crédito, onde as regras eram mapeadas para os computadores, e eles inferiam as soluções e pareceres. A era atual está marcada pelo uso de IA em muitos campos e de sucesso de diversos esforços e pesquisas, como o surgimento dos assistentes pessoais, os veículos autônomos, a evolução da robótica, a presença cada vez maior da IA na área da saúde (diagnósticos, cirurgias e testes laboratoriais), sistemas de previsão e simulação (tempo, tráfego, demanda, logística), de recomendação de produtos e serviços, como sites de compras e conteúdos em redes sociais. Enfim, estamos cercados de IA e muitas vezes isso é tão comum que nem percebemos. Nesse contexto, é importante conhecermos dois termos muito relevantes dentro da inteligência artificial, que são a representação do conhecimento e o aprendizado de máquina. A representação do conhecimento é uma tentativa de transformar o domínio de um problema (conhecimento) de forma a torná-lo disponível ao uso, seja para busca de informações ou para estruturar/organizar um determinado conhecimento. Já o aprendizado de máquina (machine learning) é a tentativa de se criar estruturas com o potencial de aprendizagem, ou seja, para que a máquina esteja pronta para capturar e organizar o conhecimento em seu processo de interação com dados e informações, seja ela, por exemplo, analisando uma quantidade de dados já armazenado ou na interação com um usuário. Fique de olho! O aprendizado de máquina é uma área com muitos estudos e pesquisas, e vem evoluindo a cada dia de maneira muito rápida. Artigo extra sobre aprendizado de máquina, clicando aqui. As soluções em inteligência artificial só crescem devido aos altos investimentos de grandes empresas na área, sendo ela cada vez mais presente no nosso cotidiano e na rotina das organizações. O profissional de inteligência empresarial lida diariamente com soluções que envolvem IA, às vezes sem mesmo notar, porém, quanto mais conhecermos essas soluções e dominarmos o assunto de IA, iremos conseguir extrair ao máximo das soluções encontradas ou mesmo desenvolver nossas próprias soluções corporativas envolvendo o assunto. Computação em Nuvem A computação em nuvem, do termo em inglês cloud computing, muitas vezes chamadas simplesmente de nuvem ou cloud, é um meio pelo qual empresas disponibilizam serviços de computação como servidores, armazenamento de arquivos, banco de dados, redes, software e outros através da Internet, oferecendo forma de acesso rápida a esses serviços, de maneira flexível e econômicos, por geralmente trabalharem sob demanda. Tipos de Serviços em Nuvem Existem diversas definições para os tipos de serviços de nuvem. As três mais comuns são os softwares como serviços (SaaS), plataformas como serviços (PaaS) e as infraestruturas como serviços (IaaS). Software como serviço (SaaS): O SaaS (Software as a Service) disponibiliza o uso de aplicativos executados na infraestrutura do fornecedor do serviço de nuvem, por exemplo, Office 365 ou Google Drive. Nesse caso, os aplicativos são normalmente oferecidos aos clientes através da Internet e são totalmente gerenciados pelo provedor de nuvem. Plataforma como serviço (PaaS): Os serviços de nuvem PaaS (Plataform as a Service) oferecem uma plataforma de aplicação como serviço, por exemplo, Google App Engine ou Microsoft App Service. Isso permite que os clientes implementem softwares personalizados usando as ferramentas e linguagens de programação oferecidas pelo fornecedor. Os clientes têm controle sobre os aplicativos implantados e configurações relacionadas ao ambiente. Tal como acontece com SaaS, a gestão da infraestrutura subjacente reside na responsabilidade do fornecedor. Isso significa que a administração desses serviços, como atualização e correção, é de responsabilidade do provedor. https://www.google.com/url?q=https%3A%2F%2Fwww.sas.com%2Fpt_br%2Finsights%2Fanalemytics%2Fmachine-learning.html&sa=D&sntz=1&usg=AOvVaw1gkBrnk394ivunhtvfjisK https://www.google.com/url?q=https%3A%2F%2Fwww.sas.com%2Fpt_br%2Finsights%2Fanalemytics%2Fmachine-learning.html&sa=D&sntz=1&usg=AOvVaw1gkBrnk394ivunhtvfjisK https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.s0v5m3x6omwc https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.s0v5m3x6omwc https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.ocsv1t6plbwz https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.ocsv1t6plbwz Infraestrutura como serviço: IaaS (Infrastructure as a Service) fornece recursos de hardware como CPU (processamento), espaço em disco ou componentes de rede como um serviço. Esses recursos geralmente são entregues como uma plataforma de virtualização pelo provedor de nuvem e podem ser acessados pela Internet pelo cliente. O cliente tem controle total da plataforma virtualizada e não é responsável pelo gerenciamento da infraestrutura subjacente. Tipos de Nuvem Podemos classificar os tipos de nuvens como públicas e privadas. As nuvens públicas geralmente pertencem a empresas que disponibilizam seus serviços aos clientes interessados, essas empresas são chamadas também de provedores de serviços de nuvem. Nesse caso, todos os softwares e hardwares são administrados pela empresa onde o cliente, acessando sua conta, faz a contratação e uso dos serviços disponibilizados. A nuvem privada é direcionada geralmente ao uso de uma determinada empresa, ela possui seus softwares e hardwares próprios e tem o controle total destes, que geralmente estão localizados em um datacenter da própria empresa. Dentre as nuvens públicas mais conhecidas, podemos citar as das seguintes empresas: Amazon AWS – Amazon Web Services, é considerada o maior serviço de nuvem do mundo por sites da área, fornece mais de 175 tipos de serviços em datacenters distribuídos pelo mundo; Disponível em https://aws.amazon.com/. Google Google Cloud Platform – é o serviço de nuvem da Google, focada na facilidade, é ideal para quem está se aventurando a conhecer essa área; Disponível em https://cloud.google.com/. Microsoft Microsoft Azure – é o serviço de nuvem de uma das mais tradicionais empresas de tecnologia do mundo, a Microsoft foi precursora em diversas áreas da tecnologia e agora está amplamente posicionada com fornecimento de diversos serviços de nuvem a empresas e pessoas; Disponível em https://azure.microsoft.com/. https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.dnwc0exb4fj5 https://www.sites.google.com/ulbra.br/G000077GS001/t006#h.dnwc0exb4fj5 https://www.google.com/url?q=https%3A%2F%2Faws.amazon.com%2F&sa=D&sntz=1&usg=AOvVaw29wsoj35m93uDTvRnP0949 https://www.google.com/url?q=https%3A%2F%2Faws.amazon.com%2F&sa=D&sntz=1&usg=AOvVaw29wsoj35m93uDTvRnP0949 https://cloud.google.com/ https://cloud.google.com/ https://www.google.com/url?q=https%3A%2F%2Fazure.microsoft.com%2F&sa=D&sntz=1&usg=AOvVaw07xcD7cdAAq-ezTbEBDRV4 https://www.google.com/url?q=https%3A%2F%2Fazure.microsoft.com%2F&sa=D&sntz=1&usg=AOvVaw07xcD7cdAAq-ezTbEBDRV4 BlockChain As criptomoedas atraíram muitas atenções nos últimos anos, tanto por pessoas relacionadas a organizações e também de pesquisadores do meio acadêmico, em razão do uso e das tecnologias que sustentam ela,a principal delas é o blockchain. O blockchain é o mecanismo central das criptomoedas atuais e foi proposto pela primeira vez em 2008 e implementado em 2009 por Satoshi Nakamoto, pseudônimo de uma pessoa ou grupo que criou a tecnologia blockchain e a criptomoeda bitcoin, que até hoje tem a sua identidade verdadeira desconhecida. Blockchain pode ser considerado como um livro-razão público, no qual todas as transações confirmadas são armazenadas nas chamadas cadeias de blocos. Essa cadeia cresce continuamente quando novos blocos são acrescentados a ela. O blockchain, a tecnologia, tem as principais características, como descentralização, persistência, anonimato e possibilidade de auditoria. Blockchain pode funcionar em um ambiente descentralizado, que é habilitado por integração de várias tecnologias essenciais, como hash criptográfico, assinatura digital (com base sobre criptografia assimétrica) e mecanismo de consenso distribuído. Com a tecnologia blockchain, uma transação pode ocorrer de forma descentralizada. Como resultado, blockchain pode economizar muito o custo e melhorar a eficiência. Embora Bitcoin seja o aplicativo de blockchain mais famoso, o blockchain pode ser aplicado em diversas aplicações, muito além das criptomoedas. Uma vez que permite pagamentos para ser finalizado sem qualquer banco ou qualquer intermediário, o blockchain pode ser usado em vários serviços financeiros, como ativos digitais, remessas e pagamento online ou para registar qualquer transação ou acordo entre duas partes. Além disso, a tecnologia blockchain está se tornando uma das tecnologias mais promissoras para a próxima geração de sistemas de interação na Internet, como contratos inteligentes, serviços públicos, Internet das coisas, sistemas de reputação e serviços de segurança. As aplicações provenientes do blockchain pode modificar a forma como as pessoas e empresas trabalham, principalmente na maneira que elas se relacionam, podendo a mesma ser utilizada como uma plataforma para assinar acordos como contratos (smart contracts) de qualquer espécie, como de compra e venda, registrar um documento importante ou mesmo implantar segurança em transações já existentes. Fique de olho! A IBM tem feito materiais destinados a falar das tecnologias relacionadas ao blockchain, clique aqui se quiser se aprofundar no assunto. https://www.google.com/url?q=https%3A%2F%2Fwww.ibm.com%2Fbr-pt%2Fblockchain%2Fwhat-is-blockchain&sa=D&sntz=1&usg=AOvVaw0nr-bYgAEqjppzvu8PzKKG https://www.google.com/url?q=https%3A%2F%2Fwww.ibm.com%2Fbr-pt%2Fblockchain%2Fwhat-is-blockchain&sa=D&sntz=1&usg=AOvVaw0nr-bYgAEqjppzvu8PzKKG