Baixe o app para aproveitar ainda mais
Prévia do material em texto
UNIVERSIDADE DE SÃO PAULO ESCOLA DE ENGENHARIA DE LORENA MICHELLE FIGUEIREDO MOREIRA BIG DATA EM LOGÍSTICA: APLICAÇÃO DE FERRAMENTAS DE BUSINESS INTELLIGENCE COMO SISTEMA DE APOIO À DECISÃO LORENA 2018 MICHELLE FIGUEIREDO MOREIRA BIG DATA EM LOGÍSTICA: APLICAÇÃO DE FERRAMENTAS DE BUSINESS INTELLIGENCE COMO SISTEMA DE APOIO À DECISÃO Trabalho de conclusão de curso apresentado à Escola de Engenharia de Lorena da Universidade de São Paulo, como requisito para obtenção do título de Bacharel em Engenharia de Produção. Orientador: Profº. Drº. Fabiano Fernandes Bargos. LORENA 2018 AUTORIZO A REPRODUÇÃO E DIVULGAÇÃO TOTAL OU PARCIAL DESTE TRABALHO, POR QUALQUER MEIO CONVENCIONAL OU ELETRÔNICO, PARA FINS DE ESTUDO E PESQUISA, DESDE QUE CITADA A FONTE Ficha catalográfica elaborada pelo Sistema Automatizado da Escola de Engenharia de Lorena, com os dados fornecidos pelo(a) autor(a) Moreira, Michelle Figueiredo Big Data em Logística: aplicação de ferramentas de business intelligence como sistema de apoio à decisão / Michelle Figueiredo Moreira; orientador Fabiano Fernandes Bargos. - Lorena, 2018. 73 p. Monografia apresentada como requisito parcial para a conclusão de Graduação do Curso de Engenharia de Produção - Escola de Engenharia de Lorena da Universidade de São Paulo. 2018 1. Business intelligence. 2. Big data. 3. Cadeia de suprimentos. 4. Logística. I. Título. II. Bargos, Fabiano Fernandes, orient. AGRADECIMENTOS Gostaria primeiramente de agradecer ao meu pai Marcos, minha mãe Sandra e minha irmã Nicole que foram os grandes responsáveis pela ajuda e suporte para alcançar o sonho de graduar-me em engenharia. A meus amigos da infância, adolescência e família que caminharam comigo até agora nos momentos mais felizes da minha vida. À Deus pela oportunidade que me concedeu de poder cursar minha graduação em Lorena, na USP, e formar uma segunda família com a amizade das mais queridas integrantes da minha república. Ao meu namorado Lucas pelo amor, ajuda e ensinamentos nesses últimos anos de companheirismo. Aos professores da Escola de Engenharia de Lorena, em especial ao eterno coordenador de engenharia de produção Marco Antônio pelo cuidado, dom de ensinar e suporte em todos os momentos da minha graduação. Ao meu professor orientador Fabiano pela imensa ajuda e contribuição na elaboração deste projeto. E a todos por juntos, compreenderem as ausências nos eventos e encontros, as correrias em tentar estar em todos os lugares ao mesmo tempo e tornarem a distância e quilômetros percorridos nestes últimos anos poucos para estarmos juntos em momentos especiais. “A melhor maneira de prever o futuro é criá-lo.” (Peter Drucker) RESUMO MOREIRA, M. F. BIG DATA EM LOGÍSTICA: APLICAÇÃO DE FERRAMENTAS DE BUSINESS INTELLIGENCE COMO SISTEMA DE APOIO À DECISÃO. 2018. 73f. Trabalho de Conclusão de Curso – Escola de Engenharia de Lorena, Universidade de São Paulo, Lorena, 2018. Ao mesmo tempo em que os setores logísticos ganham relevância, a complexidade em termos de processos e geração de informação de dados aumentam e podem ser, quando bem utilizadas, uma grande vantagem competitiva. A grande massa de dados gerada, conhecida por Big Data, não pode ser processada por meio de tecnologias e algoritmos tradicionais e deve receber tratativa diferenciada para que possa fornecer insights eficientes. O presente projeto utilizou a metodologia de desenvolvimento de software para criar um sistema de apoio à decisão para o gerenciamento e análise de Big Data no setor de Logística de Armazenagem, a partir de uma aplicação de ferramenta de Business Intelligence. Como resultados, foram obtidos quatro painéis distintos que se mostraram eficazes em termos de interatividade e desempenho tanto para a área de negócio quanto para os setores de tecnologia da empresa. Palavras Chave: Business Intelligence, Big Data, Cadeia de Suprimentos, Logística. LISTA DE ILUSTRAÇÕES Figura1: Processos do Big Data. .............................................................................. 18 Figura2: Categorias de sistemas de BI&A. ............................................................... 19 Figura3: Quadrante Mágico Gartner ......................................................................... 25 Figura4: Metodologia de desenvolvimento de software do tipo cascata. ................. 30 Figura 5: Sub-etapas da análise de requisitos. ........................................................ 32 Figura 6: Macroprocessos da logística de armazenagem. ....................................... 36 Figura 7: Representação gráfica de arquitetura de BI. ............................................. 38 Figura 8: Canvas do Projeto ..................................................................................... 39 Figura 9: Estrutura de dados painel aderência ao módulo de recebimento. ............ 41 Figura 10: Estrutura de dados painel aderência ao módulo de retorno e descarga. 42 Figura 11: Estrutura de dados painel aderência ao módulo de separação e carregamento. ........................................................................................................... 42 Figura 12: Esquema gráfico da arquitetura de software vigente. ............................. 43 Figura 13: Detalhes procedimentais para construção dos dashboards. ................... 44 Figura 14: Representação gráfica do conjunto de painéis de controle. .................... 46 Figura 15: Conexão do Power BI com o Banco de Dados Azure SQL Data Warehouse. ............................................................................................................... 47 Figura 16: Codificação etapa de tratamento dos dados. .......................................... 47 Figura 17: Etapa gerenciamento de relações painel aderência ao módulo de separação e carregamento........................................................................................ 48 Figura 18: Etapa gerenciamento de relações painel aderência ao módulo de retorno e descarga................................................................................................................. 49 Figura 19: Etapa Gerenciamento de Relações Painel Aderência ao Módulo de Recebimento. ............................................................................................................ 49 Figura 20: Cálculo do indicador aderência ao módulo de separação e carregamento utilizando linguagem DAX. ........................................................................................ 50 Figura 21: Visualização do painel de Aderência ao WMS Total com função zoom habilitada. .................................................................................................................. 51 Figura 22: Visualização do painel de separação e carregamento com aplicação de hierarquia de dados. .................................................................................................. 52 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808320 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808324 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808327 Figura 23: Representação da Aba “Relatório” com opção de exportação para Excel. .................................................................................................................................. 53 Figura 24: Dashboard final do Indicador Aderência ao Módulo de Separação e Carregamento........................................................................................................... 54 Figura 25: Dashboard final do Indicador Aderência ao Módulo de Recebimento ..... 55 Figura 26: Dashboard final do Indicador Aderência ao Módulo de Retorno e Descarga. .................................................................................................................. 56 Figura 27: Dashboard final do Indicador Aderência ao Módulo de Separação e Carregamento. .......................................................................................................... 57 Figura 28: Visão para dispositivos móveis – Painel aderência WMS Total. ............. 58 Figura 29: Resultado avaliação dos critérios de storytelling. .................................... 59 Figura 30: Inserção visualização do painel através de números absolutos. ............. 60 Figura 31: Alteração da visualização do tipo filtro para opção com busca por digitação. ................................................................................................................... 61 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808343 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808343 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808344 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808345 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808345 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808346 file:///C:/Users/Michelle/Downloads/TCC%20Versão%20%20Final%20-%20corrigido%20VS5.docx%23_Toc520808346 LISTA DE QUADROS Quadro 1: Funcionalidades do WMS consolidadas. ................................................. 15 Quadro 2: Comparação entre Data Marts e Data Warehouse.................................. 22 Quadro 3: Nove dimensões do Modelo Canvas. ...................................................... 31 LISTA DE SIGLAS BI&A - Business Intelligence & Analytics BI - Business Intelligence WMS - Warehouse Management System ERP - Enterprise Resource Planning OLTP - On-line Transaction Processing ETL - Extract Transform Load DW - Data Warehouse ODS - Operational Data Store DM - Data Mart VA - Visual Analytics CD - Centro de Distribuição LA - Logística de Armazenagem TIL - Tecnologia da Informação com suporte à Logística TI - Tecnologia de Informação PL - Projetos em Logística SUMÁRIO 1. INTRODUÇÃO ................................................................................................... 11 1.1 Objetivos ..................................................................................................................... 12 1.1.1 Objetivos Específicos ....................................................................................... 12 1.2 Limitações ................................................................................................................... 12 2. FUNDAMENTAÇÃO TEÓRICA .......................................................................... 13 2.1 Logística e cadeia de suprimentos ...................................................................... 13 2.2 WMS – Warehouse Management System ........................................................... 14 2.3 Big Data ....................................................................................................................... 16 2.3.1 Big Data Analytics ............................................................................................. 17 2.4 Business Intelligence ............................................................................................... 18 2.4.1 Business Intelligence&Analytics ................................................................... 18 2.4.2 Componentes do BI .......................................................................................... 19 2.5 Storytelling visual analytics ................................................................................... 22 2.6 Softwares BI no mercado ....................................................................................... 24 2.6.1 Qlikview ................................................................................................................ 26 2.6.2 Tableau ................................................................................................................. 27 2.6.3 PowerBI ................................................................................................................ 27 3. METODOLOGIA ................................................................................................ 29 3.1Objeto de pesquisa .................................................................................................... 29 3.2 Procedimentos metodológicos ......................................................................... 30 4. RESULTADOS E DISCUSSÃO ......................................................................... 34 4.1 Análise de requisitos ............................................................................................... 34 4.1.1 Identificação dos stakeholders e definição da equipe do projeto ... 34 4.1.2 Diagnóstico dos indicadores a serem monitorados ................................ 35 4.1.3 Diagnóstico dos sistemas de informação .................................................. 37 4.1.4 Criação do escopo do projeto ........................................................................ 38 4.2 Projeto .......................................................................................................................... 40 4.2.1 Estrutura de dados ............................................................................................ 40 4.2.2 Arquitetura de software ................................................................................... 43 4.2.3 Detalhes procedimentais ................................................................................. 44 4.3.4 Caracterização das interfaces ........................................................................ 44 4.3 Implementação .......................................................................................................... 46 4.3.1 Tratamento dos dados ..................................................................................... 46 4.3.2 Cálculos e métricas ........................................................................................... 48 4.3.3 Criação de Relatórios ....................................................................................... 50 4.4 Teste ............................................................................................................................. 58 4.5 Manutenção ................................................................................................................ 60 4. CONCLUSÕES .................................................................................................. 62 5.1 Sugestões para Trabalhos Futuros ..................................................................... 63 REFERÊNCIAS ......................................................................................................... 64 Anexo A - Lista de Bases de Dados do Qlikview ....................................................... 68 Anexo B - Lista de Bases de Dados do Tableau ....................................................... 70 Anexo C - Lista de Bases de Dados do Power BI ..................................................... 72 11 1. INTRODUÇÃO Em um cenário de altíssima competitividade e grandescomplexidades organizacionais, empresas passaram a lidar com um mercado de clientes cada vez mais exigentes, operações globalizadas e um alto e crescente nível de inovação tecnológica. Consequentemente, as cadeias de suprimentos têm enfrentado desafios devido às mais variadas expectativas de clientes e uma alta variabilidade de demandas por produtos (KAMALAHMADI; PARAST, 2016). Tal variabilidade do mercado reflete diretamente sobre a cadeia de suprimentos, criando uma competição não somente entre organizações isoladamente, mas entre as próprias cadeias, visto que é um dos principais fatores na manutenção da vantagem competitiva de uma empresa (CHRISTOPHER, 2012). Assim, tendo a instabilidade, a sazonalidade e as demandas cada vez mais complexas como principais desafios para a Cadeia de Suprimentos, saem na frente as empresas que conseguem responder de forma rápida e assertiva ao mercado, tornando essencial um efetivo Sistema de Tomada à Decisão e, consequentemente, uma robusta arquitetura das informações. Tal arquitetura é um fator importante para tornar as empresas mais ágeis e, através de análises factuais, fornecerem a seus colaboradores as informações necessárias para suas decisões (TUPPER, 2011). Segundo a pesquisa do Economic Intelligence Unit (2013), à medida que o volume de dados gerados ao longo dos processos cresce e os métodos de análise melhoram, as organizações vêm integrando cada vez mais os dados no processo de tomada de decisão. No entanto, um número crescente de fontes de dados tradicionais e não tradicionais inundam empresas com volumes e variabilidade de formatos nunca vistos antes. Assim, as empresas têm se concentrado amplamente nas oportunidades e nos desafios apresentados pelo chamado “Big Data”, reconhecendo que alavancá- lo para ganhar vantagem competitiva pode gerar benefícios significativos. As oportunidades associadas a dados e análises em diferentes organizações ajudaram a gerar interesse significativo no chamado Business Intelligence&Analytics, que é referido como o conjunto de técnicas, tecnologias, sistemas e práticas para analisar dados críticos de negócios e auxiliar as organizações em um melhor 12 entendimento de seu mercado, negócio e em decisões estratégicas mais ágeis. (Chen et. Al., 2012). 1.1 Objetivos O presente projeto tem como objetivo geral criar painéis de controle para gerenciamento e monitoramento do Big Data gerado ao longo de processos do setor logístico de uma multinacional, a partir de ferramentas de Business Intelligence. 1.1.1 Objetivos Específicos • Identificar indicadores críticos à operação da área de negócio; • Criar painéis de controle que atendam às necessidades do cliente e os requisitos de storytelling – devidamente definidos e descritos neste estudo; • Avaliar o desempenho dos painéis em critérios previamente estabelecidos; • Definir processo de manutenção que viabilize a sustentabilidade do sistema proposto. 1.2 Limitações Dado que os objetivos deste trabalho foram desdobrados para atender a demanda e necessidade da área de negócio de logística de armazenagem, todas entrevistas qualitativas para entendimento de seus processos foram feitas alinhadas unicamente a estabelecer a problematização e definir os indicadores críticos para conclusão dos objetivos. Este trabalho, portanto, não tem foco em aprofundar-se nos conceitos de logística e cadeia de suprimentos, mas entendê-la suficientemente para agregar valor a seus processos através de tecnologia. 13 2. FUNDAMENTAÇÃO TEÓRICA A utilização de mineração e análise de dados na Logística tem se evidenciado pela capacidade de efetuar inúmeras operações e facilitado o cotidiano das empresas provendo uma base mais robusta à tomada de decisão. A seguir serão apresentados conceitos sobre inteligência de dados no segmento citado. 2.1 Logística e cadeia de suprimentos A Logística Empresarial é o conjunto de atividades de movimentação e armazenagem que torna possível o movimento dos produtos ao longo de toda a cadeia, desde a aquisição das matérias-primas até o consumidor final, assim como seus fluxos de informação envolvidos (AKEMI, 2017). A logística no Brasil ganhou mais robustez por volta de 1990, após a abertura dos mercados, e desde então tem se tornado um dos principais fatores capazes de proporcionar diferencial competitivo às empresas, visto que os custos logísticos representam uma porção significativa dos custos totais de uma organização, equivalendo em média 25% das vendas e 20% do produto nacional bruto (BORGES, 2014). Para que os processos logísticos sejam bem-sucedidos, é essencial que se tenha um sistema de informações capaz de suportar todas as etapas que compõem sua estrutura, desde o manuseio e gestão dos materiais até a programação da produção, suprimento e a distribuição (LIMA, 2017). Dentre as diversas atividades dentro da cadeia de suprimentos, o processo de armazenagem é de extrema relevância, visto que muitas vezes pode diminuir a distância entre o fornecedor e o cliente, além de abranger etapas como dimensionamento, gerenciamento de recursos materiais e patrimoniais, administração dos espaços físicos, montagem e desmontagem, consolidação de cargas, entre outros (AKEMI, 2017). À medida que o processo de armazenagem se torna mais complexo, é crucial que se tenha um sistema de informação eficaz e capaz de apoiar na tomada de decisões de forma rápida e inteligente. Para suprir esta demanda, um sistema de gerenciamento muito utilizado é o Warehouse Management System (WMS), que 14 mesmo podendo ser facilmente customizado, sempre visa garantir a qualidade e a velocidade das informações, racionalizando e otimizando a Logística de Armazenagem (ARIEIRA, 2013). 2.2 WMS – Warehouse Management System De acordo com Ribeiro e Carvalho (2011): O WMS é um sistema de gestão (software), que melhora a operacionalidade da armazenagem, mediante ao gerenciamento de informações eficiente e dos recursos do mesmo. As informações utilizadas podem ser provenientes de empresas transportadoras, do setor de produção da empresa, dos clientes e fornecedores, entre outros. O WMS utiliza estas informações para receber, inspecionar, estocar, separar, embalar e expedir mercadorias da melhor forma possível. Entre as principais vantagens de um sistema de WMS, encontram-se a sua adaptabilidade e seu desenvolvimento junto à empresa (FIGUEIRA, 2017), tendo diversas funções para apoiar a estratégia de logística operacional direta e seus vários processos, como: ● Programação e entrada de pedidos; ● Planejamento e alocação de recursos; ● Portaria; ● Recebimento; ● Inspeção e controle de qualidade; ● Estocagem; ● Transferências; ● Separação de pedidos; ● Expedição; ● Inventários; ● Controle; ● Relatórios. Soriano (2013) compilou o oferecimento e funções do WMS dados pela literatura, resumidos no Quadro 1: 15 Quadro 1: Funcionalidades do WMS consolidadas. Funcionalidade Descrição Programação da entrada de pedidos, portaria e gerenciamento de pátio. Definição do momento no qual um pedido será separado de acordo com a disponibilidade de produtos em estoque e urgência do mesmo. Também realiza o controle de portaria, programando data e hora de entrada. Além disso, monitora todo o andamento do processo de embarque ou desembarque. Planejamento e alocação de recursos. Faz o planejamento da necessidade de horas de trabalho de pessoal e equipamentos necessários para a realização das atividades programadas para atender a demanda diária de recebimento, movimentação e expedição de um ou mais armazéns. Aloca os recursos adequados no momento e local onde são necessários. Pré-recebimento. Programação do recebimento de mercadorias conforme disponibilidade e urgência. Recebimento. Execução, acompanhamento, registro econtrole do recebimento de materiais. Estocagem. Endereçamento automático, segundo limitações dos endereços de armazenagem registradas, curva de vendas, data de expiração e demais restrições cadastradas no sistema. Registro de todas as movimentações internas e transferências de forma a alocar racionalmente os produtos, minimizando a ociosidade e organizando a área de armazenagem. Separação de pedidos. Definição do operador, da sequência dos pedidos a serem separados e da melhor rota a ser executada para que o trabalho seja realizado no menor tempo possível. Inventários. Suporte, acompanhamento, registro e controle na realização de inventários cíclicos ou gerais. Identificando, monitorando e rastreando diferenças de estoque. Priorização de tarefas urgentes. Prioriza recebimentos, expedições e demais movimentações de produtos com base no seu grau de importância e urgência. Continua 16 Conclusão Funcionalidade Descrição Priorização de tarefas urgentes. Prioriza recebimentos, expedições e demais movimentações de produtos com base no seu grau de importância e urgência. Inspeção e controle de qualidade. Registro de informações como não conformidades ou controle para a liberação de lotes. Rastreabilidade. Registra todas as informações sobre um lote de produtos produzido ou recebido. Desde a data de produção, item, data de liberação, veículo expedido, operador responsável pela movimentação, destino de embarque, dentre outros. Possibilita o rastreamento de qualquer lote manuseado pela operação. Gerenciamento de devoluções. Programa, recebe e controla as devoluções existentes. Serviços com valor agregado. Propicia a prestação de serviços de valor agregado para empresas que trabalham com prestador de serviço logístico. Fonte: Adaptado de Soriano (2013). À medida que a digitalização dos processos logísticos permite explorar novas possibilidades, inúmeros dados são gerados ao longo de toda a cadeia de suprimentos. Este grande volume de dados, conhecido por Big Data, não pode ser processado por meio de tecnologias e algoritmos tradicionais e deve receber tratativa diferenciada para que possa fornecer insights1 eficientes. Neste cenário, para aproveitar ao máximo a revolução do Big Data, pesquisadores e gerentes da Cadeia de Suprimentos precisam entender e incorporar o papel e as implicações desta revolução para a tomada de decisão (WALLER, 2013). 2.3 Big Data As definições para Big Data evoluíram rapidamente e, de acordo com Dubey (2016), Big Data é uma vasta quantidade de dados disponíveis em diferentes níveis de complexidade, podendo ser criados por humanos ou máquinas, apresentando altos níveis de ambiguidade. Dentre várias outras definições, claramente a primeira delas está associada ao volume. Dubey (2016) afirma ainda que Volume, Variedade e Velocidade são os 1Compreensão súbita de alguma coisa ou determinada situação. 17 três desafios no manuseio e gerenciamento de Big Data. O volume refere-se à quantidade dos dados; variedade refere-se à heterogeneidade estrutural dos conjuntos de dados e velocidade à taxa em que os dados são gerados e a velocidade em que devem ser analisados e atuados. Davenport (2014) aponta os principais desafios do Big Data sendo estruturar os dados, analisá-los e extrair valor deles, definindo o termo como: Dados que não podem ser contidos nos repositórios usuais: refere- se a dados volumosos demais para caber em um único servidor; não estruturados demais para se adequar a um banco de dados organizado em linhas e colunas; ou fluidos demais para serem armazenados em um banco de dados estático. Embora o termo enfatize seu tamanho, o aspecto mais complicado do bigdata, na verdade, envolve sua falta de estrutura (DAVENPORT, 2014). O Big Data é amplamente considerado como uma grande ferramenta de otimização da tomada de decisão e melhoria na lucratividade. Com base no estudo de McAfee e Brynjolfsson (2012) “quanto mais as empresas se autodenominam como data-driven2,melhor a performance no alcance de resultados financeiros e operacionais (...) companhias que estão no Top 3 no uso de dados como ferramenta de tomada à decisão são, em média, 5% mais produtivas e 6% mais rentáveis que seus competidores”. 2.3.1 Big Data Analytics O Big Data quando isolado é inútil. Seu valor potencial só pode ser extraído quando alavancado para gerar a tomada de decisão. Para habilitar tais decisões baseadas em evidências, as organizações precisam de processos eficientes para transformar altos volumes de dados em insights significativos. O processo geral de extrair informações do Big Data pode ser dividido em cinco estágios definidos por Labrinidise Jagadish (2012), e estão demonstrados na Figura 1. Estes cinco estágios formam dois principais subprocessos: O Gerenciamento de Dados e a Análise. O Gerenciamento de Dados envolve processos e tecnologias para dar suporte para adquirir e armazenar dados e prepará-los para análise; e a Análise, por outro lado, refere-se às técnicas utilizadas para analisar e adquirir inteligência do seu banco de dados. 2Conceito de basear decisões e ideias a dados. 18 Fonte: (LABRINIDIS e JAGADISH, 2012) Fonte: (LABRINIDIS & JAGADISH, 2012). 2.4 Business Intelligence Uma importante forma de analisar Big Data são as ferramentas de Business Intelligence, conhecidas como BI. Essas ferramentas promovem uma visão sistêmica de negócio e têm como principal objetivo transformar e compilar grandes bases de dados em informações de qualidade, a partir do cruzamento de dados, visualizações sob diferentes perspectivas e análise de indicadores de desempenho (NASCIMENTO, 2016). 2.4.1 Business Intelligence&Analytics Conforme apontado por Mortenson et. al. (2015) e posteriormente defendido por Sayão (2017), não há um consenso na academia sobre o conceito de Business Analytic se sua diferença entre termos correlatos – como Business Intelligence e Big Data. Chen et. al. (2012) adota uma definição unificada de dois conceitos utilizando o termo Business Intelligence&Analytics (BI&A) e que, segundo seus estudos, apresenta a seguinte definição: “Técnicas, tecnologias, sistemas, práticas, metodologias, e aplicações que analisam dados críticos no negócio para auxiliar as organizações em um melhor entendimento de seu mercado, negócio e em decisões mais rápidas” (CHEN et al., 2012). Desta mesma forma, Chiang et al. (2012), utilizam o termo BI&A e o classificam em três categorias de análises para tomada de decisão: Descritiva, Preditiva e Prescritiva. Os autores defendem a seguinte definição para o termo: “Nós utilizamos BI&A como um termo unificado para descrever conceitos e métodos de utilização intensiva das informações para melhorar a tomada de decisão das empresas. BI&A inclui a arquitetura subjacente, ferramentas analíticas, sistemas de gestão de bancos de dados, técnicas de mineração de dados, aplicações e metodologias” (CHIANG et al., 2012). Figura1: Processos do Big Data. 19 Hill (2014) ilustrou as categorias de sistemas de BI&A proposta por Chiang et al. (2012), destacando a geração de diferencial competitivo conforme aumenta a sofisticação das análises empregadas, Figura 2. Figura2: Categorias de sistemas de BI&A. Fonte: (HILL, 2014). 2.4.2 Componentes do BI O Business Intelligenceé, de forma geral, composto por ferramentas que em conjunto cumprem a função de geração dos dados, extração, armazenamento e análise das informações. Abaixo estão descritos alguns de seus principais componentes. Fonte de Dados (Data Sources) Os dados de uma empresa podem ser basicamente adquiridos de duas grandes fontes: fontes internas e fontes externas. As fontes de dados do tipo internoreferem-se aos dados que são capturados e mantidos por sistemas operacionais dentro de uma organização e estão relacionados a operações empresariais, como informações de clientes, produtos, dados de vendas, entre outros (ONG et. Al., 2011). Dentre as fontes de dados internas, destaca-se o sistema Enterprise Resource Planning (ERP), que são sistemas de informação que integram os processos de uma empresa utilizando uma base de dados comum e ferramentas de compartilhamento. 20 De forma simples, o ERP permite que diferentes áreas de uma empresa compartilhem dados e conhecimento reduzindo custos e melhorando o gerenciamento dos mais variados processos (DREDDEN, 2007). As fontes de dados do tipo externo referem-se, entretanto, àqueles que se originam fora de uma organização. Este tipo de dado pode ser recolhido a partir de fontes como pesquisas de mercado, internet, dados governamentais, parceiros de negócios, entre outros. Estes dados estão geralmente relacionados a concorrentes, mercado, ambiente e tecnologia (ONG et. Al., 2011). Os sistemas de informação de uma organização geralmente abrangem bases de dados heterogêneas e com características operacionais diferentes. Quando estes sistemas têm processamento de transações online recebem o nome comumente chamado de sistemas transacionais ou, em inglês, On-line Transaction Processing (OLTP) (CHAUDHURI e DAYAL, 1997). Extração dos Dados (ExtractTransformLoad – ETL) Esta camada concentra-se em três processos principais: extração, transformação e carregamento dos dados. Extração é o processo de identificação e coleta de dados relevantes de diferentes fontes. Normalmente, os dados coletados de fontes internas e externas não são integrados, são incompletos e podem ser duplicados. Portanto, o processo de extração é necessário para selecionar dados que são significativos no apoio à tomada de decisões (ONG et. Al., 2011). Os dados extraídos são então enviados para uma área de armazenamento temporária chamada de área de preparo. Na segunda etapa, os dados passam pelo processo de transformação no qual os dados são convertidos para formatos consistentes de análise, utilizando-se de regras como funções de agregações. Depois, é realizado um processo de limpeza dos dados, termo em inglês conhecido por data cleansing, que refere-se ao processo de identificação e correção de dados com base em regras pré-especificadas (RANJAN, 2009). Uma vez que os dados foram transformados e limpos, eles são armazenados na área de preparo para então prosseguirem para a última etapa do ETL, a de Carregamento, onde são finalmente carregados no repositório de destino, os chamados data warehouse(ONG et. Al., 2011). 21 Armazenamento dos Dados (Data Warehouse) Existem três grandes componentes na etapa de armazenamento dos dados: o depósito de dados operacionais, conhecido por Operational Data Store (ODS), o data warehouse e os data marts. O ODS é utilizado para integrar os dados da etapa de ETL e carregá-los no data warehouse.O ODS não armazena os dados e são projetados para apoiar no processamento operacional migrando-os quase que em tempo real para seu destino final. Os dados armazenados no ODS são voláteis, o que significa que podem ser substituídos ou atualizados com outros dados (ONG et. Al., 2011). Quanto ao Data Warehouse (DW) e o Data Mart (DM), ambos são estruturas especiais com o principal objetivo de armazenar informações capazes de sustentar a camada de inteligência da empresa, para ser aplicada na tomada de decisão, como elementos diferenciais e competitivos (ANTONELLI, 2009). O Data Warehouse é um dos componentes mais relevantes do Business Intelligence e é responsável por suportar a propagação física dos dados, manipulando inúmeros registros, tarefas de limpeza dos dados, agregação e consulta. Ele contém dados ao vivo, não instantâneos e mantém um histórico mínimo (RANJAN, 2009). O Data Mart é uma estrutura similar ao do DW, porém com uma proporção menor de informações. Trata-se de um subconjunto de informações do DW que podem ser identificados por assuntos ou departamentos específicos. O conjunto de Data Marts em conformidade dentro da organização compõe o DW (RANJAN, 2009). O Quadro 2 (Ribeiro, 2005) diferencia os dois conceitos. Advanced Analytics É referido como a mineração de dados ou análise preditiva. O Advanced Analytics aproveita as técnicas de análise estatística para prever ou fornecer medidas de certeza sobre os fatos (RANJAN, 2009). 22 Quadro 2: Comparação entre Data Marts e Data Warehouse. Data Marts Data Warehouse Nível departamental Nível corporativo Alto nível de granularidade Baixo nível granularidade Pequena quantidade de dados históricos Grande quantidade de dados históricos Tecnologia otimizada para acesso de consultas rápidas Tecnologia otimizada para armazenamento e gerência de grandes quantidades de dados Cada área departamental possui suas características específicas As estruturas são reconstruídas para um entendimento em nível de corporação Fonte: RIBEIRO (2005). Dashboards Categoria que geralmente fornece um agregado de vários tipos e fontes de informações para que se possa então construir painéis e contar uma história (RANJAN, 2009). 2.5 Storytelling visual analytics À medida que analistas e cientistas de dados passam a trabalhar com conjuntos de dados cada vez maiores e mais complexos, a visualização de dados tornou-se um ativo extremamente importante tanto para o processo decisório como para comunicar insights a outros analistas e tomadores de decisão (HEER, 2009). Friendly (1995) identificou o termo visualização de dados como sendo o estudo da representação visual e de seu significado, sendo este representado pelas informações – atributos ou variáveis – que foram abstraídas de alguma forma esquemática. Dado assim a importância de visualização dos dados em diferentes etapas do processo de análise, fica evidente a necessidade de aprimorar ferramentas de análise visual. Geralmente, as técnicas de visualização discutidas fazem parte de um conjunto maior de ferramentas, conhecido por Visual Analytics (VA). O VA foi identificado como “a ciência do raciocínio analítico apoiada por interfaces visuais altamente interativas” e que combina métodos automáticos de análise de dados (por exemplo, limpeza de dados e mineração de dados) e visualizações interativas (ELIAS, 2012). No domínio do business intelligence, a principal ferramenta de visualização são os dashboards de BI (ELIAS, 2012), que são coleções de múltiplos componentes visuais, como gráficos e tabelas, por exemplo, em uma única visão (FEW, 2004). No 23 entanto, como apontado por Wojtkowski e Wojtkowski (2002), dashboards e outras ferramentas de visualização usadas para analisar conteúdos complexos não podem ser usadas simplesmente para contar histórias. Eles precisam ser “adaptados” para acomodar narrativas, a fim de melhor destacar itens de importância dentro de recursos de dados muito grandes (GERSHON, 2001), de uma forma que não esteja claro apenas para o criador da ferramenta, mas também para o público. Faz-se sentido aplicar então o conceito de storytelling no campo de estudo de business intelligence, que foi definido por Serrat (2008) como a “descrição vívida de ideias, crenças pessoais, experiências e lições de vida através de histórias ou narrativas que evocam emoções e percepções poderosas”. Elias et. Al. (2013) identificou uma série de requisitos para criar um dashboard de business intelligence com um storytelling mais efetivo, que serão descritos a seguir: Transição fluída: As ferramentas de análise usadas para explorar dados e criar visualizações são diferentes das ferramentas de criação de relatórios. Exportar visualizações do primeiro para o segundo para criar uma história de BI custa tempo e esforço elimita a possibilidade de incorporar informações mais reduzidas ou anotações criadas durante a análise. Para garantir que os criadores de conteúdo não recriem informações, torna-se importante haver uma maneira fluida e integrada de fazer a transição entre a ferramenta e outros recursos de análise utilizados pelo usuário. Integração: Para contar suas histórias, os criadores de BI precisam de ferramentas que combinem todos os materiais usados na criação da história: relatórios de BI, visualizações interativas, capacidade de destacar objetos gráficos, apresentação da história de forma sequencial e explicações em formato de texto ou áudio. Recursos de apoio visual à narrativa: Os criadores de relatórios precisam adicionar recursos de forma a destacar visualizações específicas, como realce, coloração diferenciada, ferramentas de anotação e zoom. Visualizações interativas: Uma ferramenta com storytelling efetivo deve ter visualizações completamente interativas, onde dados e objetos gráficos sejam também formas de clusterizar e filtrar informações. A maneira como os usuários 24 utilizarão tal interatividade deve ser limitada e controlada pelo criador da ferramenta, tornando esse equilíbrio um aspecto desafiador do storytelling. Reuso: Embora os relatórios de BI e os dados mudem de análise para análise, muitas vezes a estrutura subjacente das histórias de BI permanece a mesma. É importante, portanto, existir a possibilidade de reutilizar facilmente a estrutura das histórias criadas dentro da ferramenta, tanto para histórias de evolução dos dados, como para histórias futuras semelhantes. Reprodução: Os usuários devem conseguir ver uma representação estática de toda a história para obter uma visão geral, mas também fornecer uma reprodução guiada da história para ajudá-los a seguir caminhos de análise que não sejam totalmente intuitivos de descobrir de forma a garantir que eles entendam os pontos importantes de acordo com o criador. 2.6 Softwares BI no mercado Pesquisas do Gartner (2017) promoveram estudos e previsões para os próximos anos sobre diferentes programas de Business Intelligence (BI) e Analytics e apontaram como uma necessidade destas ferramentas a agilidade no desenvolvimento, funcionalidades para dispositivos móveis, características self- service3e a busca pela facilidade na modelagem dos dados. Segundo estes critérios, o Gartner elencou os programas de BI hoje existentes no mercado de maior relevância, conforme a Figura 3. 3Prática de se obter um benefício de uma atividade sem a necessidade de um intermediário. Utilizado no âmbito de tecnologia da informação para caracterizar aquilo que é de aprendizado intuitivo. 25 Figura3: Quadrante Mágico Gartner Fonte: (GARTNER, 2017). Na horizontal, são avaliadas a visão da empresa em termos de inovação tecnológica e abrangência sobre as necessidades do mercado, enquanto que na vertical é avaliado o quanto cada uma delas têm capacidade de executar e implantar o que prometem. O quadrante de líderes detém as empresas que são consideradas referência no mercado do citado segmento e o portfólio mais completo para executar o que prometem. O quadrante de desafiadores enquadra as organizações que possuem boa capacidade de execução, mas são inferiores em relação aos líderes em termos de abrangência e inovação. Quanto aos visionários, encontram-se as empresas que possuem alta inovação e abrangência no mercado, mas não conseguem entregar completamente aquilo que se propõem; e, por fim, os especialistas em nicho não atendem toda e qualquer empresa, mas são consistentes nos segmentos que atuam. 26 Como líderes, destacam-se as ferramentas Power BI, da Microsoft, e o Tableau, ambas elencadas por sua facilidade de uso, crescimento e baixo custo. Em seguida, tem-se o Qlik que foi bem avaliado por suas funcionalidades, plataforma e crescimento do QlikSense, considerada como uma das plataformas com análises mais avançadas do mercado. Os três softwares melhor elencados na pesquisa serão analisados a seguir. 2.6.1 Qlikview O QlikView é um software de business intelligence e analytics, com o qual os usuários podem rapidamente criar visualizações, relatórios e painéis e colaborar com análises de dados em tempo real. O QlikView permite que os usuários importem dados de várias fontes, tenham insights e resolvam problemas de negócios (LI, 2014). O QlikView possui vários componentes de várias funções. Esses múltiplos componentes juntos formam uma plataforma de descoberta de dados: • QlikView Desktop: Responsável pelas ferramentas de análise de dados e criação dos painéis de controle e é através dele que o usuário poderá criar as tabelas, gráficos e visualizações para traduzir seus dados em informações; • QlikView Server: Responsável por fazer a interface entre as bases de dados e o QlikView Desktop. É através do QlikView Server que os usuários podem interagir com as bases de dados em tempo real; • QlikView Publisher: Responsável por publicar os dashboards criados a partir dos outros componentes, sendo também responsável por autorizar ou não o acesso às informações geradas. Ainda de acordo com Li (2014), o QlikView requer conhecimento avançado em tecnologia da informação e programação para criar painéis realmente efetivos, tendo uma interface não tão intuitiva. 27 2.6.2 Tableau Tableau é a ferramenta de BI da empresa californiana Tableau Software. Assim como o QlikView, o Tableau também é dividido em subprodutos, os quais estão descritos a seguir (LI, 2014). • Tableau Desktop: É a ferramenta de criação de visualizações e relatórios e através dela seus usuários conseguem se conectar a múltiplas fontes de dados, criar os painéis de controle e publicar o trabalho completo para o Tableau Server; • Tableau Server: Responsável pelo gerenciamento de dados tanto para navegadores tradicionais quanto para celulares; • Tableau Online: Versão do Tableau Server na nuvem. Dispensa a necessidade de hardware e armazenamento de dados; • Tableau Public: Ferramenta gratuita para publicação de visualização de dados interativos ao público; • Tableau Reader: Ferramenta gratuita para visualização e interação de arquivos criados no Tableau Desktop. O Tableau também possui alta compatibilidade com diversos bancos e formatos de dados, entretanto, ao contrário do QlikView, possui uma interface mais intuitiva e amigável ao usuário, não exigindo conhecimentos profundos prévios para criação de painéis. 2.6.3 PowerBI O Power BI é uma das mais novas ferramentas de Business Intelligence do mercado, sendo lançado ao público pela empresa Microsoft no ano de 2015 (LACHEV, 2018). Conhecido por sua interface intuitiva e de rápido entendimento, o Power BI pode ser dividido em quatro subprodutos: • Microsoft Power BI Desktop: É o programa para Windows que permite criar uma coleção de consultas, conexões e bases de dados para assim criar dashboards e relatórios; 28 • Microsoft Power BI Web: É neste componente que são compartilhados os relatórios para que as pessoas desejadas tenham acesso às informações dos mesmos; • Microsoft Power BI para Mobile: Formato Web do Power BI para dispositivos móveis; • Gateway do Microsoft Power BI: Responsável por fornecer uma transferência de dados rápida e segura entre os dados locais e o serviço do Power BI Web. Pelo Power BI Gateway são agendadas atualizações automáticas dos dashboards com os bancos de dados e fontes diversas conectadas. Todas três ferramentas possuem uma vasta lista de bases de dados compatíveis, as quais foram demonstradas nos Anexos A, B e C deste trabalho. 29 3. METODOLOGIA A abordagem deste projeto foi predominantemente quantitativa, mas tambémqualitativa. O aspecto quantitativo foi trabalhado em todas suas etapas no sentido de importação, análise e processamento de dados; e qualitativa nas etapas de compreensão do negócio e por meio de entrevistas não estruturadas para definição do problema central. O procedimento metodológico utilizado foi o de desenvolvimento de software e terá suas fases detalhadas na seção 3.2. 3.1 Objeto de pesquisa O presente trabalho teve como objeto de estudo uma empresa multinacional de grande porte no setor de alimentos, com enfoque no processo de armazenagem de produtos acabados. O gerenciamento e monitoramento das atividades nos armazéns logísticos da empresa em questão é feito por um sistema WMS próprio que também coleta, em tempo real, informações sobre os processos de recebimento de mercadorias, separação, carregamento de cargas, movimentação e armazenagem. Atualmente, a empresa conta com mais de 100 Centros de Distribuição (CD) espalhados pelo Brasil que são convencionalmente divididos por regionais. Além do setor corporativo nacional, a estrutura da empresa também é dividida em pequenos setores menores divididos por tais regionais, para melhor suportar o gerenciamento das operações em processos de gestão de custos, dimensionamento de equipe, pagamentos, entre outros. Algumas unidades, devido ao nível de porte e complexidade, possuem versões mais avançadas do sistema WMS que por consequência suporta e gerencia um maior número de processos. O sistema foi implementado há cerca de quatro anos e ainda está em processo de amadurecimento tanto no uso, por parte das operações, quanto na análise dos dados que coleta, por parte da unidade corporativa. A enorme massa de dados produzida pelo WMS tem enorme potencial para produzir análises que aumentem significantemente a qualidade e eficiência dos processos nos armazéns, mas ainda não tem sido explorada como fonte de suporte à decisão. 30 3.2 Procedimentos metodológicos Para melhor execução e organização ao longo do desenvolvimento do projeto, utilizou-se a metodologia de desenvolvimento de software do tipo cascata. O presente modelo ficou assim conhecido frente a sua sequência sistemática entre fases, onde a saída de cada uma delas é a entrada para a posterior (SOMMERVILLE, 2003). Atendendo aos objetivos e ao problema, a metodologia revelou-se a mais adequada entre outras semelhantes pela significativa ênfase em construir um sistema de alta qualidade e por seu foco na resolução de uma necessidade de negócio (SOMMERVILLE,2003). O ciclo de vida do modelo cascata contempla cinco fases, representadas na Figura 4. Todas suas etapas foram abordadas neste estudo e serão descritas na sequência. Figura4: Metodologia de desenvolvimento de software do tipo cascata. Fonte: Adaptado de Sommerville (2003). Análise de requisitos O objetivo principal desta etapa foi de modo amplo estabelecer um entendimento geral dos problemas de negócios e familiarizar-se com os sistemas de informação existentes. Para isto, foram levantados todos os possíveis stakeholders4do projeto e definido um cronograma de reuniões de planejamento e execução com cada uma das áreas de interesse. Para cada uma delas, foi estabelecido um membro como ponto de contato principal e responsável por garantir as informações e atividades necessárias da respectiva área. Após serem feitas as reuniões e definidos os principais indicadores para o processo de armazenagem, o escopo do projeto proposto foi formalmente 4Público estratégico que descreve uma pessoa ou grupo que tem interesse em uma empresa, negócio ou indústria. 31 documentado, assim como as estimativas de tempo de duração e custos/esforços de implementação. Para garantia da execução de um bom escopo, utilizou-se como modelo a ferramenta de gerenciamento de negócios Canvas, proposto por Osterwalder e Pigneur (2010). Este modelo abrange três grandes pilares–criação de valor, entrega de valor e captura de valor – os quais resumem 9 dimensões, que foram representadas pelo Quadro 3. Quadro 3: Nove dimensões do Modelo Canvas. Nove dimensões Definição Segmento de clientes Distintos grupos de pessoas ou organizações que uma empresa busca alcançar, servir e criar valor. Relacionamento com os clientes Tipos de relacionamento que uma organização pode adotar com seus segmentos de clientes específicos. Canais Maneira como uma empresa se comunica e alcança seus clientes a fim de realizar uma proposta de valor. Proposta de valor Pacote de produtos e serviços bem como quais valores são entregues aos segmentos de clientes. Recursos-chave Recursos são mais importantes para fazer um modelo de negócio funcionar. Atividades-chave Ações mais importantes que uma empresa deve tomar para fazer funcionar seu modelo de negócio. Parcerias-chave Rede de fornecedores e os parceiros que põem o modelo de negócio em execução. Fontes de renda Dinheiro que uma empresa gera a partir de cada segmento de cliente. Estrutura de custos Custos envolvidos na operação de um modelo de negócio. Fonte: (BONAZZI, et. Al., 2014). 32 Para garantir que todas as informações e problemas de negócios fossem compreendidos, a fase de Análise de Requisitos foi ainda dividida em quatro subetapas representadas na Figura 5: Fonte: Autor. Projeto A fase de projeto tem como objetivo traduzir os requisitos do sistema a ser criado para um conjunto de representações gráficas. Tais traduções e representações concentraram-se em caracterizar quatro atributos principais: ● Estrutura de dados: caracterização dos dados conforme tipo e complexidade; ● Arquitetura de Software: definição dos tipos e softwares utilizado conforme arquitetura necessária para importação e atualização dos dados; ● Detalhes procedimentais: faseamento da execução, incluindo etapas de importação de dados, tratamento e limpeza dos dados, cálculos e criação de métricas; • Caracterização visual da interface do painel: Definição dos indicadores demonstrados no relatório e suas respectivas visualizações, tendo como resultado final o desenho visual do relatório. Implementação A fase de implementação foi a etapa em que o painel foi de fato construído, utilizando-se da tradução das representações gráficas criadas ao longo da segunda fase. Na Implementação, todos os procedimentos delineados na etapa de projeto foram executados e submetidos a testes individuais antes de progredir-se para etapa posterior. Figura 5: Sub-etapas da análise de requisitos. 33 Teste A presente fase envolveu a aplicação dos testes necessários para verificar a capacidade operacional do sistema e da autocompreensão dos dados e história apresentada no painel por parte dos usuários. Para isso, foi feita uma série de sessões de avaliação com cada um dos representantes foco das áreas identificadas como stakeholders. Após a avaliação do sistema nestes e outros aspectos, uma documentação explicativa do funcionamento do painel foi produzida. Manutenção A fase de manutenção visou abranger duas principais vertentes. Primeiramente aplicou-se a etapa de manutenção corretiva, na qual proveu adaptações do painel para melhor atender as expectativas dos usuários; e posteriormente a manutenção evolutiva, na qual identificou-se a oportunidade de criar uma série de novas funcionalidades que foram devidamente documentadas para alimentar projetos futuros. 34 4. RESULTADOS E DISCUSSÃO Os resultados tiveram sua divisão alinhada com o processo metodológico e demonstram os avanços obtidos em cada uma de suas fases. 4.1 Análise de requisitos 4.1.1 Identificação dos stakeholders e definição da equipe do projeto A primeira etapa na Análise de Requisitos foi definir apartir de reuniões com a área corporativa de Logística de Armazenagem da empresa todos os stakeholders e pontos focais de cada área envolvida. A partir desta, foram listados os seguintes departamentos como parte do projeto, os quais estão descritos abaixo assim como sua função, relação com o estudo e os membros que fizeram parte da equipe. Departamento de Logística de armazenagem A área de Logística de Armazenagem (LA) é o departamento corporativo de suporte e gerenciamento de produtividade e custos dos centros de distribuição no que diz respeito aos processos de armazenagem de produtos acabados. O departamento foi o principal fornecedor de informações para caracterização do processo estudado e por listar os principais indicadores de acompanhamento e suas respectivas memórias de cálculo. Este departamento foi definido como a área cliente e, portanto, foi o principal avaliador dos painéis de controle. Da área de LA, foi selecionada uma especialista como membro da equipe, por apresentar vasto conhecimento na área, tendo experiência tanto operacional por ter atuado no Centro de Distribuição, na equipe regional e também na área corporativa. A especialista será nomeada neste estudo por LA1. Além de LA1, selecionaram-se também os especialistas regionais LA2 e LA3 e os coordenadores de operação LA4, LA5 e LA6, que contribuíram principalmente na fase de avaliação do sistema, para garantir que todas as perspectivas de usuários fossem abrangidas. Departamento de Tecnologia da Informação A área de Tecnologia da Informação da empresa tem seu organograma dividido pelas áreas de negócio que suportam e, por isso, para este estudo o 35 departamento envolvido foi o de Tecnologia da Informação de suporte à Logística (TIL). Suas principais funções são garantir o planejamento e organização de toda a infraestrutura e a coordenação das atividades de TI, administração dos gastos em tecnologia e atividades de manutenção das aplicações de negócio, como os sistemas de WMS e ERP utilizados. Este departamento foi a maior fonte de informação no que diz respeito a estruturação do banco de dados, como é feita a extração, atualização e armazenamento dos mesmos, ferramentas de análise disponíveis e análise conjunta para viabilização do projeto proposto. Da área de TIL, foi selecionado um coordenador como membro da equipe, por ser atualmente o responsável por gerir toda a infraestrutura de dados da área de Logística. O coordenador será nomeado neste estudo por TIL1. Departamento de Projetos em Logística A área de Projetos em Logística (PL) é responsável por identificar, desenvolver – junto a fornecedores ou não – e implementar soluções de tecnologia aplicadas a todos os processos logísticos. Foi a área de Projetos que gerenciou todo o processo de implantação dos módulos do sistema de WMS atualmente utilizados e foi a maior provedora de informações de como e quais atividades o sistema monitora. Como membro da equipe, foi selecionado o gerente atual de Business Intelligence&Analytics da Logística, nomeado neste estudo de PL1 e o Especialista Corporativo de Implantação de WMS que apoiou todo o processo de implantação do sistema desde o início, nomeado por PL2. 4.1.2 Diagnóstico dos indicadores a serem monitorados Nesta etapa, foram diagnosticados junto a área de LA, liderado por LA1, todos os macroprocessos de armazenagem, ilustrados na Figura 6. 36 Figura 6: Macroprocessos da logística de armazenagem. Fonte: Autor. O processo de Armazenagem inicia-se na fase de Recebimento, na qual são entregues os produtos acabados vindos da fábrica. Depois de recebidos, os produtos são descarregados e armazenados nos estoques na etapa de Movimentação e Armazenagem, respectivamente. Em seguida, tem-se a etapa de Separação e Carregamento, onde os produtos são separados em pallets conforme as ordens de venda do dia anterior. Após montados os pallets, os mesmos são carregados nos caminhões para então serem liberados para entrega, na etapa chamada de Liberação. Os caminhões, após voltarem das ruas, passam pela portaria onde é registrada a entrada dos ativos de giro (pallets e chapatex) que retornaram e, possivelmente, dos produtos devolvidos, caracterizando assim a etapa de Retorno e Descarga. Por fim, acontece novamente uma etapa de Movimentação, só que desta vez visando a armazenagem dos ativos e produtos que retornaram da rota de entrega. Conforme já dito anteriormente, embora todos os macroprocessos da Logística de Armazenagem sejam gerenciados a partir de um sistema de WMS, o mesmo ainda não alcançou a aderência de uso ideal por parte das operações. Assim, visto que o ganho em maximizar o uso da ferramenta é crucial para a organização das tarefas e atividades das operações e ainda enriquecer a base de 37 dados para rastreabilidade das informações e identificação de benchmarks, definiu-se como indicador chave de análise a Aderência ao WMS, o qual corresponde o total de atividades completas a partir do sistema, comparado ao total de atividades reais realizadas na operação. A aderência ao WMS é dividida em três indicadores principais, que monitoram diferentes macroprocessos e, juntas, compõem o indicador final Aderência ao WMS Total, calculado pela média simples destas três: • Aderência ao Módulo de Separação e Carregamento; • Aderência ao Módulo de Recebimento; • Aderência ao Módulo de Retorno e Descarga. Além de ter altíssima relevância para a evolução do processo de armazenagem, a escolha do indicador Aderência ao WMS deveu-se também ao grande trabalho manual que o mesmo requer para sua apuração. Anteriormente a publicação dos painéis, era feita uma extração diária do banco de dados com os resultados do dia anterior e carregados em um arquivo de Excel5 para cálculo. Após apurados, os mesmos eram enviados às operações por e-mail, o que dificultava o acompanhamento e armazenamento da informação. Os fechamentos anuais e mensais requeriam o esforço de uma empresa terceira de tecnologia da informação, que tinha como função extrair os dados acumulados e exportá-los novamente para uma planilha de Excel que também era compartilhada com operações, regionais e corporativo. 4.1.3 Diagnóstico dos sistemas de informação Após definidos os indicadores a serem monitorados, foi diagnosticado junto à área de TIL, liderado por TIL1, todos os sistemas e fontes de dados necessários para alimentar o sistema de monitoramento a ser implementado. Como sistemas transacionais (OLTP), foram identificadas duas fontes principais de informação: o WMS e o ERP. Após coletadas estas informações, todo o 5Nome pelo qual é conhecido o software desenvolvido pela empresa Microsoft, amplamente usado por empresas e particulares para a realização de operações financeiras e contabilísticas usando planilhas eletrônicas (folhas de cálculo). 38 Big Data é transferido por intermédio de uma ferramenta de ETL e armazenado em um data warehouse na nuvem, o Azure SQL Data Warehouse. Sobre as ferramentas de visualização, a empresa em questão já faz uso das ferramentas Qlikview e Power BI. Ambas foram testadas e, assim como havia sido previsto, a ferramenta Power BI apresentou interface mais intuitiva, além de disponibilizar uma versão mobile, sendo esta, portanto a ferramenta escolhida para criação dos painéis. Na Figura 7 está esquematizada a arquitetura de BI utilizada para viabilização do projeto: Figura 7: Representação gráfica de arquitetura de BI. Fonte: Autor. 4.1.4 Criação do escopo do projeto Após a definição da equipe e diagnóstico das necessidades de negócio e da infraestrutura disponível para viabilização do projeto, foi feito o Canvas do mesmo, disponibilizado na Figura 8. 39 Fonte: Autor.Figura 8: Canvas do Projeto Figura 8: Canvas do Projeto 40 4.2 Projeto A fase de projeto teve como principal saída a construção de quatro grandes representações gráficas que auxiliaram a traduzir cada um dos requisitos do sistema nos seguintes âmbitos: Estrutura de dados; Arquitetura de Software; Detalhes procedimentais e Caracterização das Interfaces. Neste tópico serão descritos e ilustrados cada um dos conjuntos desenhados, que foram concebidos com suporte e validação da área TIL. 4.2.1 Estrutura de dados A estrutura de dados do data warehouse utilizado é multidimensional. Nesta estrutura, existem dois grandes tipos de conjuntos de dados: as dimensões – que são os conjuntos descritivos dos dados e que qualificam as informações provenientes do segundo tipo de dados, as Fatos. As fatos possuem caráter quantitativo e são elas que contêm todas as métricas e medições para análise dos processos estudados. O conteúdo histórico do data warehouse fica inteiramente depositado nas fatos. Em termos práticos, os dois tipos de dados foram cruzados unindo as informações qualitativas das medições para então trazer informações significativas e palpáveis para as análises. Para construção dos painéis, foram utilizados três fatos do data warehouse, cada uma responsável por descrever quantitativamente os processos aqui analisados. Abaixo estão descritos os nomes e informações atreladas de cada uma delas: • DW_FATO_RECEB: Fato relacionada ao processo de Recebimento de produtos acabados da fábrica; • DW_FATO_RET_DESC: Fato relacionada ao processo de Retorno e Descarregamento de ativos de giro e produtos de devolução das rotas de entrega; • DW_FATO_CARREG: Fato relacionada ao processo de separação e carregamento de produtos no caminhão para entrega; • DW_FATO_ORD_VEND: Fato que descreve todas as ordens de vendas e os respectivos clientes; 41 • DW_FATO_ORD_PED: Fato que descreve todas as ordens de pedido da fábrica, quais produtos e respectivas quantidades. Quanto às dimensões, foram utilizadas: • DIM_TEMPO: Qualifica as informações de tempo e todas suas derivações a partir da data, como dia da semana, se a mesma é feriado ou não, estação do ano, entre outras; • DIM_LOCAL: Qualifica todas as informações dos centros de distribuição, como nome, endereço, gerente de operações e latitude e longitude; • DIM_PROD: Qualifica as informações dos produtos armazenados e entregues e quais suas dimensões físicas (peso, altura e largura do pallet); • DIM_FAB: Descreve as informações das fábricas de origem dos produtos, assim como endereço, latitude e longitude e gerente logístico responsável; • DIM_AG: Descreve as informações do tipo de ativo de giro – pallet ou chapatex. A partir, portanto, da definição das fatos e dimensões necessárias, foram desenhados os esquemas no âmbito de estrutura de dados para cada um dos painéis nas figuras de 9 a 11: Figura 9: Estrutura de dados painel aderência ao módulo de recebimento. Fonte: Autor. 42 Figura 10: Estrutura de dados painel aderência ao módulo de retorno e descarga. Fonte: Autor. Figura 11: Estrutura de dados painel aderência ao módulo de separação e carregamento. Fonte: Autor. 43 4.2.2 Arquitetura de software A etapa de representação gráfica da Arquitetura de Software foi uma continuação e aprofundamento do item 4.1.3, no qual foi feito o Diagnóstico dos Sistemas de Informação, e focou-se em detalhar a fase de Aplicações de Visualização. A visualização dos dados através do Power BI neste projeto consistiu no uso de três subprodutos do mesmo: O Power BI Desktop, utilizado para tratar e transformar os dados, aplicar as métricas e construir o aspecto visual do painel; o Power BI Service, utilizado para publicar o painel para os usuários finais; e o Power BI Gateway, que permitiu que os dados fossem constantemente atualizados ao conectarem-se ao banco através de atualizações automáticas agendadas. O esquema completo, portanto, da Arquitetura de Software utilizada está representado na Figura 12: Figura 12: Esquema gráfico da arquitetura de software vigente. Fonte: Autor. 44 4.2.3 Detalhes procedimentais A etapa de Detalhes Procedimentais concentrou-se em esquematizar os passos necessários para construir os painéis, a partir da ferramenta do Power BI Desktop. Nela, foram identificadas três grandes fases que podem seguir ordens variadas e, portanto, ser revisitadas ao longo de todo o processo de execução: • Tratamento dos dados: no qual podem ser feitos as extrações, transformações e filtros dos dados; • Cálculos e métricas: no qual são criadas todas as medidas, colunas e tabelas calculadas, assim como o gerenciamento dos relacionamentos para cruzamento das informações; • Visualização dos dados: no qual os dados são finalmente transformados em informações através de gráficos, quadros e tabelas. A representação gráfica final da etapa de Detalhamentos Procedimentais foi esquematizada na Figura 13: Figura 13: Detalhes procedimentais para construção dos dashboards. Fonte: Autor. 4.3.4 Caracterização das interfaces A representação gráfica da caracterização das interfaces limitou-se em esboçar o padrão visual entre os painéis alinhado ao levantamento teórico descrito no Item 2.5 (Visual Analytics). 45 Como requisito, todos os painéis foram criados utilizando-se das seguintes características: • Transição fluída, à medida que todos os painéis possibilitaram incorporar uma maneira integrada de fazer a transição entre a ferramenta de Power BI e Excel através de exportações de dados; • Integração, à medida que as visualizações foram distribuídas de forma sequencial e explicadas através de textos curtos e títulos; • Presença de recursos de apoio visual à narrativa, a partir de destaques e colorações diferenciadas para os indicadores e informações de maior relevância, além de possibilidade de zoom de todos os objetos do painel; • Visualizações interativas, onde as tabelas e gráficos foram todos construídos como formas de clusterizar e filtrar informações; • Reuso, à medida que possibilitou facilmente recriar as histórias de outros indicadores a partir do mesmo padrão; • Reprodução, através de um “painel resumo” que representou estaticamente toda a história para então depois fornecer uma reprodução guiada e detalhada dos indicadores individualmente. Na Figura 14, foram representados os painéis criados, sendo um painel destinado ao resumo geral dos indicadores e outros três com o detalhamento individual dos mesmos. 46 Figura 14: Representação gráfica do conjunto de painéis de controle. Fonte: Autor 4.3 Implementação A implementação do projeto consistiu em executar as três fases dos Detalhes Procedimentais – tratamento de dados, cálculos e métricas e criação de relatórios – e serão descritas nesta seção. 4.3.1 Tratamento dos dados O primeiro passo para a etapa de Tratamento de Dados foi a importação dos fatos e dimensões descritas na Seção 4.2.1 através da conexão do Power BI Desktop e o banco de dados da empresa armazenado no Azure SQL Data Warehouse, passo este representado pela Figura 15. Após importados, foi feito o tratamento dos dados através da ferramenta de edição de consulta e aplicados os seguintes passos: • Seleção das colunas de interesse para análise; • Exclusão de linhas nulas, retirando dados em branco contidos nas fatos, comuns de serem importados junto ao big data; • Transformação dos dados, a partir da alteração dos tipos dos dados conforme necessidade – alteração para hora, número e texto; 47 • Filtragem do período de análise, excluindo dados históricos que não pertenciam ao ano corrente, garantindo melhor performance ao painel.Os passos aplicados ao longo da etapa de tratamento foram codificados e estão representados pela Figura 16. Figura 15: Conexão do Power BI com o Banco de Dados Azure SQL Data Warehouse. Fonte: Autor. Figura 16: Codificação etapa de tratamento dos dados. Fonte: Autor. 48 4.3.2 Cálculos e métricas O primeiro grande e importante passo na fase de Cálculos e métricas é o gerenciamento das relações entre as dimensões e fatos, já antecipados e esquematizados pelo item 4.3.1.Para isto, cada fato traz consigo do banco de dados uma coluna com as chaves para as dimensões associadas e são cruzadas a partir da seção de relações da ferramenta Power BI. O resultado final da etapa de criação das relações está representado nas Figuras 17 a 19. Figura 17: Etapa gerenciamento de relações painel aderência ao módulo de separação e carregamento. Fonte: Autor. Depois de feitas as devidas relações, os cálculos para apuração dos indicadores puderam ser finalmente feitos a partir da criação de medidas e colunas calculadas. Todos os cálculos de aderência foram realizados a partir do racional de atividades completas utilizando-se o WMS dividido pelo total de atividades real realizadas para aquela tarefa. Para o indicador da Aderência ao Módulo de Separação e Carregamento, utilizou-se o total de pallets vendidos contidos na fato de Ordem de Vendas e como numerador o total de pallets separados e carregados com registro no WMS. De forma simples, se dez pallets foram vendidos na ordem de vendas de um 49 determinado pedido, em um determinado caminhão, e 9 pallets do respectivo pedido possuem registro de separação e carregamento no WMS, a aderência será de 90%. Para a atividade de retorno e descarga, utilizou-se a informação de total de carros que saíram para entrega como total de carros que deveriam também ter dado entrada na portaria e registro de descarga, unindo-se então a informação do WMS ao ERP de ordem de vendas. Figura 18: Etapa gerenciamento de relações painel aderência ao módulo de retorno e descarga. Fonte: Autor. Figura 19: Etapa Gerenciamento de Relações Painel Aderência ao Módulo de Recebimento. Fonte: Autor. 50 Por fim, para a atividade de recebimento de produto, rastreou-se o total de atividades que deveriam ter sido completas a partir da soma de pedidos que o Centro de Distribuição realizou à fábrica e, depois, quantos registros de pedido de fato houveram na etapa de recebimento no sistema de WMS. Dado que cada pallet vendido tem um código específico e único no sistema de ERP e igualmente único no sistema de WMS, o cálculo da aderência foi feito utilizando-se a função de contagem distinta dos códigos de cada um dos sistemas, sendo que a contagem no WMS é o numerador e a contagem no sistema ERP, o denominador. Para todos os cálculos, utilizou-se a linguagem de programação do Power BI DAX (Data Analysis Expressions) e foram representados por um exemplo na Figura 20. Figura 20: Cálculo do indicador aderência ao módulo de separação e carregamento utilizando linguagem DAX. Fonte: Autor. 4.3.3 Criação de Relatórios A etapa de criação de relatórios é onde concentraram-se todos os esforços para colocar as estratégias de storytelling em prática. Para isso, além de colocar os requisitos estabelecidos por Elias et. Al. (2013) como base, definiu-se também uma padronização entre as visualizações conforme os tipos de dados a serem representados. Para dados de comparação, utilizou-se gráficos do tipo histograma; para dados de tendência de acordo com tempo, usou-se gráficos do tipo curva; para dados qualitativos, gráficos de pizza; e, por fim; para dados resumidos do tipo total, por exemplo, utilizou-se visualizações do tipo cartão. Para efeitos didáticos, serão descritos todos os passos de criação do Painel Geral de Aderência ao WMS Total, os quais foram replicados para construção dos outros dashboards. 51 Primeiramente, para atender ao requisito de Integração, criou-se um sequenciamento padronizado das visualizações o qual consistiu em colocar as informações mais resumidas no início (canto superior esquerdo) e aprofundar o nível de detalhe e granularidade das informações abaixo e ao lado. Além disso, todos os objetos gráficos tiveram seu título descrito conforme o objetivo da visualização e legendas, quando necessário, para explicação de informações mais complexas. Para o requisito de Recursos de Apoio Visual à Narrativa, destacaram-se os dados sobre meta a partir de colorações contrastantes e habilitou-se a função de zoom para todos os objetos do painel, conforme ilustrado na Figura 21. Figura 21: Visualização do painel de Aderência ao WMS Total com função zoom habilitada. Fonte: Autor. 52 Além disso, os gráficos dos painéis são todos interativos de forma a serem usados também como filtros para outras informações, além de possibilitar a opção de duplo clique para aprofundamento do nível da informação de geografia para CD, por exemplo, conforme Figura 22. Figura 22: Visualização do painel de separação e carregamento com aplicação de hierarquia de dados. Fonte: Autor. O requisito de Transição fluida foi atendido criando-se uma aba específica chamada de “Relatório”, em que uma visualização do tipo tabela foi inserida com os detalhes da base histórica como data, nome do centro de distribuição, código da atividade, tipo, hora de início, hora de fim, tempo de duração, entre outros. Esta visualização foi especificamente inserida para facilitar a transição dos dados do Power BI para Excel, permitindo interação e análise por outras perspectivas conforme vontade do usuário. A aba relatório foi inserida em cada um dos painéis e está 53 representada com uma delas – referente ao painel de Aderência Total – pela Figura 23, abaixo: Figura 23: Representação da Aba “Relatório” com opção de exportação para Excel. Fonte: Autor. Como Reuso, o padrão de cores de fundo e alocação dos objetos foram fixados e facilmente replicados para os outros dashboards e por fim, como característica de reprodução, foi criado o painel geral de Aderência ao WMS Total ilustrado ao longo desta seção, e devidamente linkados painéis específicos, de forma a auxiliar no entendimento geral do todo. O resultado final da etapa de Implementação foi representado pelas imagens de cada um dos dashboards, incluindo o painel geral da Aderência Total, nas Figuras 24 a 27, assim como a versão para dispositivos móveis, representada pela Figura 28. 54 Figura 24: Dashboard final do Indicador Aderência ao Módulo de Separação e Carregamento. Fonte: Autor 55 Fonte: Autor Figura 25: Dashboard final do Indicador Aderência ao Módulo de Recebimento 56 Figura 26: Dashboard final do Indicador Aderência ao Módulo de Retorno e Descarga. Fonte: Autor 57 Fonte: Autor Figura 27: Dashboard final do Indicador Aderência ao Módulo de Separação e Carregamento. 58 Figura 28: Visão para dispositivos móveis – Painel aderência WMS Total. Fonte: Autor. 4.4 Teste A fase de testes deu-se a partir de uma série de sessões presenciais compostas por avaliações quantitativas e qualitativas com cada um dos stakeholders do projeto para avaliar o dashboard em quatro critérios anteriormente estabelecidos: 1 - Facilidade de entendimento e obtenção de insights: neste quesito, cada stakeholder foi questionado sobre a facilidade de entender as visualizações de cada um dos dashboards e seus objetivos, além de o quão cada um deles foi eficiente para entender aonde estão os maiores
Compartilhar