Baixe o app para aproveitar ainda mais
Prévia do material em texto
DESCRIÇÃO Introdução e conceituação às plataformas em nuvem, como IBM Cloud, Google Cloud, Amazon AWS, além de Big Data e Analytics para indústria 4.0. PROPÓSITO Compreender os conceitos básicos de computação em nuvem, as principais plataformas empregadas, como a IBM Cloud, Google Cloud e Amazon AWS; bem como os conceitos de Big Data e Analytics no contexto da indústria 4.0, essencial ao profissional que deseja integrar os diversos tipos de dispositivos para IoT. PREPARAÇÃO É necessário um computador com acesso à internet e um navegador para acessar as principais plataformas de computação em nuvem. OBJETIVOS MÓDULO 1 Identificar as principais características das mais relevantes plataformas de computação em nuvem para IoT MÓDULO 2 Descrever os conceitos de Big Data e Analytics aplicados no contexto de computação em nuvem INTRODUÇÃO Quando pensamos na indústria 4.0 é fácil associar o emprego da Internet das Coisas (IoT) com um conjunto de dispositivos, sejam eles sensores, atuadores, ou quaisquer outros que estejam interligados através da internet. Entretanto, a quantidade de dispositivos empregados e o volume de informação gerados pode se tornar um problema complexo, que dificulte a adoção e administração dessa tecnologia. Com o objetivo de facilitar a integração dos dispositivos, a coleta e o processamento dos dados, é comum a adoção de plataformas de computação em nuvem, como as de IBM Cloud, Google Cloud e AWS Cloud. Essas plataformas possuem soluções que permitem a rápida integração de dispositivos e ferramentas que fazem a análise dos dados gerados, gerando informação para a empresa para que ela possa otimizar os seus processos. Neste material, abordaremos os conceitos relacionados à computação na nuvem, tais como nuvem pública, privada e híbrida, SaaS, PaaS e IaaS. Mostraremos, também, as justificativas para a adoção do modelo e apresentaremos três plataformas baseadas em nuvem (cloud), que figuram entre as principais disponíveis no mercado. Na segunda parte, falaremos sobre a indústria 4.0, conceituando-a e mostrando sua evolução. Apresentaremos as tecnologias que são a base da quarta revolução industrial e detalharemos Big Data e Analytics ao leitor. MÓDULO 1 Identificar as principais características das mais relevantes plataformas de computação em nuvem para IoT PLATAFORMAS DE NUVEM PARA IOT: IBM CLOUD, GOOGLE CLOUD, AWS CLOUD Neste módulo, introduzimos o conceito de computação em nuvem e falamos um pouco sobre três das principais plataformas em nuvem usadas para IoT. CONCEITUANDO PLATAFORMAS NA NUVEM Antigamente, as empresas precisavam estimar hardware e software a serem comprados para suportar suas operações diárias ou novos projetos – era frequente que grandes servidores precisassem ser importados. Parte desse esforço consistia também em projetar a demanda por cinco anos. O investimento costumava ser grande, além do risco. Caso a demanda ficasse abaixo do esperado, as máquinas e os sistemas comprados ficariam subutilizados. Havendo demanda acima do previsto, novos hardwares e softwares precisariam ser adquiridos, reiniciando o ciclo. Acontece que o processo de compras em uma empresa costuma ser bastante lento. Reuniões, relatórios, métricas e disponibilidade de orçamento precisam acontecer para que o processo de aquisição de novos ativos seja iniciado. Isso pode demorar meses, e até anos. Antigamente, além do risco que a empresa corria em perder dinheiro, comprando demais, havia o risco de comprar de menos, fazendo com que a solução estimada não funcionasse adequadamente, o que levaria, também, à perda de dinheiro, pelas receitas perdidas, ou adicionando ineficiências aos processos da companhia, o que seria muito pior do que o cenário da subutilização. Justamente por isso, companhias costumavam exagerar na compra inicial, para criar folga na infraestrutura a ser adquirida. Mas esse investimento inicial costumava demandar muito investimento. Era necessário fazer um aporte financeiro inicial elevado na compra de servidores, placas etc., para suportar o crescimento orgânico da demanda, em média, por cinco anos. Assim, a infraestrutura adquirida estaria sempre subutilizada no início e sobrecarregada no final. Observe que as máquinas eram compradas e trazidas fisicamente ao local do comprador. Então, elas precisavam ser instaladas e homologadas. O pessoal interno tinha que receber treinamento e certificação, tanto para hardware (os servidores, placas etc.) quanto para software (sistemas operacionais, bancos de dados, software de redundância e proteção de dados, segurança etc.). As ineficiências desse modelo são óbvias. Com a virtualização e a comoditização do hardware, um novo modelo de negócios surgiu, baseado na computação em nuvem, que consiste em usar sob demanda recursos de hardware e de software: Hardware Servidores, rede, banda de transmissão, processamento, armazenamento, memória. Software Banco de dados, sistemas operacionais, balanceamento de carga, sistemas de analytics, aprendizado de máquina e gerenciamento. O modelo inovador permitiu às empresas reduzir o investimento inicial trocando Capex por Opex. Isso quer dizer que, no modelo de computação em nuvem, os clientes podem adquirir exatamente os recursos de que precisam e pagar apenas pelo uso dos recursos contratados. Funciona basicamente como um aluguel dos recursos. Havendo aumento de demanda, o cliente consegue contratar mais recursos rapidamente, como por exemplo, mais licenças de banco de dados, mais discos rígidos, mais servidores ou mais memória ou capacidade de processamento. Se acontecer o contrário, os recursos podem ser liberados imediatamente e deixam de ser faturados. VOCÊ SABIA Capex, do inglês, Capital Expenditure, ou despesas de capital, são despesas não recorrentes destinadas à compra, ou à manutenção de ativos, como equipamentos, imóveis, veículos, terras, patentes etc. Normalmente, os valores investidos como Capex seguem a estratégia de evolução da empresa e são usados para aumentar ou gerar novas receitas, expandir a operação ou ganhar novos mercados. Opex, do inglês, Operating Expenditures, ou despesas de operação, são despesas recorrentes e ordinárias, necessárias para manter a operação da empresa, tais como: aluguéis e salários. Todos os recursos disponibilizados são virtuais. Isto é, são máquinas virtuais (VMs): VMS SÃO SOFTWARES QUE EMULAM COMPUTADORES E RECURSOS EXATAMENTE COMO SE FOSSEM REAIS. ELES TÊM MEMÓRIA, PROCESSADOR, PLACAS DE REDE, SISTEMA OPERACIONAL, SOFTWARES INSTALADOS, MAS NÃO EXISTEM NO MUNDO FÍSICO. AS MÁQUINAS VIRTUAIS USAM RECURSOS FÍSICOS DO SERVIDOR REAL QUE AS HOSPEDA. Assim, as VMs usam parte da memória, dos processadores e de outras capacidades disponibilizadas entre todos os recursos totais do servidor físico real subjacente, mas de forma transparente para o usuário, que percebe os recursos como se fossem partes independentes. Os softwares também são instalados nas máquinas virtuais da mesma forma que nas máquinas reais: instalação e uso de bancos de dados, aplicativos, sistemas operacionais seguem o mesmo procedimento que em uma máquina física. COMENTÁRIO Uma das grandes vantagens das VMs é permitir o armazenamento do seu estado corrente. Desse modo, depois que está plenamente configurada e carregada, a VM pode ser armazenada em disco rígido exatamente como um aplicativo convencional, como backup. No caso de falha, apaga-se a VM defeituosa e usa-se o backup para reestabelecer o servidor imediatamente. Esse processo leva alguns minutos. Antigamente, poderia levar horas. O modelo de negócios baseado em computação na nuvem, portanto, resolve diversos problemas para as empresas: Ajuda a suavizar a curva de investimento, eliminando a necessidade de grandes aportes financeiros para compra de ativos no início do projeto, transformando Capex em Opex. Reduz custo de operação, transferindo a gestão de TI dos grandes servidores físicos para o fornecedordos recursos em nuvem. Ajusta os recursos computacionais à curva de demanda, permitindo a contratação exata da capacidade computacional necessária além de permitir o escalonamento da solução rapidamente: havendo a necessidade de mais memória, processamento, ou licenças, basta adicioná-los com um clique de botão e custeá-los como despesas operacionais, sem a necessidade de processos de compra lentos e burocráticos. Os recursos adquiridos são entregues em tempo real, afinal, não são elementos físicos, mas virtuais. De acordo com o National Institute of Standards and Technology (NIST), a computação em nuvem possui cinco características essenciais: SELF-SERVICE É a capacidade que o cliente tem em se servir (self-service), de acordo com suas necessidades e demandas (on demand). O cliente cria e aloca tantos recursos quanto for preciso, manualmente, ou pode, por meio de configuração, definir gatilhos para que mais recursos, como memória, disco rígido ou banda sejam alocados, caso o uso se torne crítico. FACILIDADE DE ACESSO Diz respeito à facilidade de acesso, que deve ser provido pela rede e por meio de aplicativos simples, não apenas para estações de trabalho e computadores mais robustos, mas também para telefones inteligentes (smartphones) e tablets. O acesso deve ser simples e diversificado. DIFERENTES USUÁRIOS A computação em nuvem deve permitir a alocação de recursos para servir diferentes usuários. Normalmente, eles estão disponíveis em um pool de recursos virtuais e são alocados dinamicamente pelos clientes, de acordo com a demanda. ELASTICIDADES O cliente deve ser capaz de aprovisionar e liberar recursos e capacidades a qualquer momento, como no caso de haver picos de demanda. SOLUÇÕES EM NUVEM Diz respeito à capacidade e à importância de medição das soluções baseadas em nuvem. O faturamento e a cobrança dos clientes é feita de acordo com o uso. Por isso, a medição do uso deve ser feita de maneira transparente e precisa, mensurando a utilização dos recursos praticamente em tempo real. De acordo com o NIST, a computação em nuvem é um modelo que permite o acesso onipresente, conveniente e sob demanda à rede compartilhada e ao conjunto de recursos de computação configuráveis (por exemplo, redes, servidores, armazenamento, aplicativos e serviços), que pode ser provisionado e liberado rapidamente com o mínimo de esforço de gerenciamento ou interação do provedor de serviços. Além disso, três modelos de serviços ofertados e três modelos de implantação também compõem os modelos de computação em nuvem. Grandes gigantes de tecnologia perceberam as vantagens desse modelo e criaram suas próprias plataformas baseadas em nuvem para fornecer recursos virtuais para seus clientes. Alguns exemplos são: Amazon Google Microsoft Salesforce VMware Cisco DE MANEIRA GERAL, PODE-SE DIZER QUE PLATAFORMA NA NUVEM É UM PORTAL EM QUE O CLIENTE CONTRATA E CONSOME RECURSOS VIRTUAIS SOB DEMANDA, PARA SUPRIR SUAS NECESSIDADES DE RECURSOS COMPUTACIONAIS E SOFTWARE. A empresa dona do portal fornece ambientes em que o cliente pode configurar e gerenciar todos os itens contratados de maneira integrada, e recebe faturas mensais de acordo com a utilização. Os serviços ofertados, que estudaremos mais à frente, podem ser basicamente de três tipos: INFRAESTRUTURA COMO SERVIÇO (Infrastructure as a Service - IaaS) PLATAFORMA COMO SERVIÇO (Platform as a Service - PaaS) SOFTWARE COMO SERVIÇO (Software as a Service - SaaS) É importante frisar que uma variedade de tecnologias, tanto de código fechado como de código aberto são ofertadas pelas plataformas. MODELOS DE COMPUTAÇÃO EM NUVEM Os três tipos mais comuns de implementação de modelos na nuvem são: Nuvem Pública (Public Cloud); Nuvem Privada (Private Cloud); Nuvem Híbrida (Hybrid Cloud). Qualquer empresa que deseje migrar seu ambiente sistêmico para a nuvem deve examinar cuidadosamente qual das três opções é mais aderente a sua realidade, tanto em termos de custos quanto de regulação. NUVEM PÚBLICA (PUBLIC CLOUD) Na nuvem pública, os serviços estão disponíveis a qualquer cliente através da internet. Para usá-los, basta se cadastrar no portal da empresa, que oferece os serviços e alugar os recursos necessários. COMENTÁRIO Alguns serviços são até mesmo gratuitos, mas a maioria pode custar uma assinatura mensal ou possuir uma tarifação sob demanda, como é o caso da banda de internet, faturada por utilização. Nuvens públicas costumam levantar dúvidas sobre segurança. É que os recursos alocados para um cliente compartilham a mesma infraestrutura física subjacente a outros clientes: vários “inquilinos” coexistem muito próximos uns dos outros, compartilhando os mesmos recursos computacionais, sem que, no entanto, saibam disso. Imagem: Shutterstock.com As empresas provedoras de nuvem pública, todavia, garantem que se as medidas de segurança forem implementadas corretamente, esse risco é mínimo. Os críticos desse modelo dizem que o cliente tem quase ou nenhum controle sobre a infraestrutura, o que de fato é verdade, já que todo o gerenciamento e manutenção é feito de forma transparente ao cliente, que é apenas notificado quando tem algum serviço contratado impactado. Custo, escalabilidade, confiabilidade, proteção contra desastre são vantagens importantes desse modelo, que permitem ao cliente operar de modo mais eficiente, exatamente por não precisar se preocupar com todos esses aspectos. O provedor dos serviços é o responsável por garantir todos eles, bem como em realizar a manutenção dos recursos físicos, aliviando o departamento de TI do cliente. O MODELO DE NUVEM PÚBLICA É O MAIS UTILIZADO. NUVEM PRIVADA (PRIVATE CLOUD) No modelo de nuvem privado, os recursos físicos podem estar tanto fisicamente instalados dentro do cliente, como podem ser acessíveis pela internet. A diferença é que a equipe de TI do cliente é responsável por configuração, gerenciamento, segurança, disponibilidade, e deve definir e executar os planos de recuperação e proteção contra desastres e manutenção preventiva e reativa. Há, portanto, um incremento nos custos de operação para que o cliente tenha total controle da rede em nuvem. As vantagens continuam basicamente as mesmas: escalabilidade, flexibilidade e segurança. ATENÇÃO No quesito segurança, inexistem outros clientes compartilhando os mesmos recursos: toda a infraestrutura é dedicada a um único cliente. NUVEM HÍBRIDA (HYBRID CLOUD) A solução de nuvem híbrida tenta racionalizar os dois modelos anteriores em um modelo misto. Nele, o cliente pode optar por manter dados sujeitos a forte regulação do governo ou aplicativos de missão crítica confinados em uma nuvem privada, e usar uma nuvem pública para outras necessidades da companhia, reduzindo custos de gestão operacional. Existe também grande mobilidade de dados e sistemas entre uma e outra. A nuvem híbrida fornece as vantagens da nuvem pública, mas também a segurança, o controle e a conformidade com leis e regulações, como no caso da privacidade de dados, quando a empresa é impedida por lei de terceirizar a gestão deles. COMENTÁRIO Quanto ao custo de operação, para o mesmo tamanho de rede, a nuvem híbrida acaba custando um valor intermediário entre a pública e a privada. MODELOS DE SERVIÇO Como já estudamos, além dos modelos de implementação, existem os modelos de serviço, que podem ser: INFRAESTRUTURA COMO SERVIÇO (INFRASTRUCTURE AS A SERVICE – IAAS) Consiste no aluguel de infraestrutura de TI. Em vez de comprar os ativos, o cliente paga por servidores, máquinas virtuais, capacidade de processamento, armazenamento, rede, entre outros, de acordo com o uso. PLATAFORMA COMO SERVIÇO (PLATFORM AS A SERVICE – PAAS) Além dos recursos computacionais, as empresas precisam desenvolver e integrar sistemas sob medida. As plataformas de computação em nuvem fornecem plataformas que permitem aos clientes desenvolver, testar e gerenciar os aplicativos, isolando essas tarefas da complexidadede manejar os recursos computacionais que suportam as aplicações desenvolvidas. SOFTWARE COMO SERVIÇO (SOFTWARE AS A SERVICE – SAAS) Tradicionalmente, software é distribuído sob licenciamento. No modelo SaaS, ele passa a ser comercializado por meio de aluguel ou assinatura. Cabe ao provedor da plataforma da nuvem atualizar, instalar patches de segurança e manutenir o sistema. O cliente pode encerrar o uso do software a qualquer momento. Atualmente, no mercado, existem diversas empresas que fornecem plataformas de computação na nuvem. Amazon, Microsoft, Joyent, IBM, Digital Ocean, VMware, Oracle; todas elas possuem nuvens, que fornecem diferentes serviços e implementam distintos modelos. Nos próximos tópicos, veremos um pouco sobre IBM Cloud, Google Cloud e Amazon AWS. GOOGLE CLOUD Google Cloud é a plataforma pública de computação em nuvem do Google. Ela é acessível através do Google Cloud Console. Foto: bangoland/Shutterstock.com Para isso, é preciso primeiro ter uma conta no Google ou Gmail. O Console permite a criação de projetos, a visualização e o aprovisionamento de vários recursos e a contratação de serviços. Ele é a interface principal do usuário. Toda a gestão dos recursos é feita por meio do Console, que funciona de forma transparente: é possível que os recursos estejam distribuídos por diferentes data centers, sem que o usuário perceba. A empresa mantém diversos data centers espalhados pelo mundo em cinco regiões diferentes: Austrália, América do Norte, América do Sul, Europa e Ásia. Essas regiões são subdivididas em zonas isoladas. O cliente pode escolher o data center mais próximo para reduzir tempos de acesso, bem como espelhar seus ambientes em um ou mais data centers geograficamente distantes, de acordo com o plano de alta disponibilidade e recuperação de catástrofe. Alguns recursos estão disponíveis globalmente, outros apenas por região ou zona. O cliente pode contratar diversos serviços, são muitas opções distribuídas em várias categorias, entre as quais listamos algumas: Inteligência Artificial e Machine Learning Análise de Dados IoT Mídia e Jogos Banco de Dados Rede Migração de Dados Saúde e Ciências Biológicas Ferramentas de Gestão Contêineres Cada uma dessas áreas contém diversos serviços relacionados. Por exemplo, na categoria IA e Machine Learning é possível contratar serviços de reconhecimento de fala e transcrição em mais de cem idiomas, bem como fazer o reverso, usar algoritmos que transformam texto em fala. Alguns dos serviços mais utilizados são: Big Query, Cloud CDN, Compute Engine, Data FLow, Cloud SQL, Anthos, Cloud Storage, Operações e Google Kubernetes Engine. Vamos ver alguns detalhes sobre eles. BIG QUERY É o serviço para grandes massas de dados: tabelas com bilhões de linhas e que podem ocupar até petabytes de armazenamento. Os dados são persistidos no BigTable – o sistema de armazenamento proprietário da empresa para armazenamento de Big Data –, e permite ao usuário executar queries SQL complexas muito rapidamente. ATENÇÃO O Big Query não fornece uma base de dados transacional, por isso, é indicado apenas para Big Data. O Google Cloud encapsula toda a complexidade do hardware subjacente. O usuário precisa apenas carregar os dados na nuvem, seja em arquivos CSV ou em outros formatos, que o Big Query já pode ser usado. É possível, também, aplicar outros serviços como Data Analytics ou de ingestão de dados, este último no caso de um fluxo contínuo. O Google Cloud encapsula toda a complexidade do hardware subjacente. O usuário precisa apenas carregar os dados na nuvem, seja em arquivos CSV ou em outros formatos, que o Big Query já pode ser usado. É possível, também, aplicar outros serviços como Data Analytics ou de ingestão de dados, este último no caso de um fluxo contínuo. BIG QUERY, PORTANTO, É INDICADO PARA CIENTISTAS DE DADOS QUE PRECISAM DE AGILIDADE NA ANÁLISE DE GRANDES VOLUMES OU FLUXOS DE DADOS, E QUE NÃO QUEREM PERDER TEMPO COM A INFRAESTRUTURA DE HARDWARE E SOFTWARE NECESSÁRIA PARA ISSO. CLOUD CDN (CONTENT DELIVERY NETWORK) O Cloud CDN é um serviço de entrega de conteúdo: aplicativos, vídeo etc. Normalmente, os pacotes oriundos de um servidor de conteúdo e que precisam ser entregues em diferentes lugares do mundo viajam longas distâncias, passando por diversas redes públicas, o que frequentemente causa atrasos e insatisfação. O Cloud CDN possibilita ao usuário transmitir seu conteúdo pela internet com segurança e rapidez. Em vez de usar redes públicas e roteamento de pacotes sem prioridade, o cliente conecta o seu servidor de conteúdo diretamente com os servidores do Google na borda da rede, em localidades próximas dos seus clientes. O CDN faz uso da rede global do Google de servidores de borda (Google Global Edge), para trazer o conteúdo o mais próximo quanto possível do seu destino. Além disso, os pacotes que trafegam nesses canais diretos têm prioridade alta e são tarifados por volumes, cerca de fração de dólar por gigabyte. A solução, portanto, acelera a entrega de conteúdo em nível global. COMPUTE ENGINE É o serviço de máquinas virtuais (VMs) da plataforma. Elas podem ser predefinidas ou customizadas. As primeiras vêm com configurações típicas de memória, cpu etc. O cliente precisa apenas selecionar a imagem e o local em que ela deve operar e iniciá-la. Já as máquinas customizadas permitem ao cliente escolher exatamente a configuração que precisa. As máquinas do tipo E2 são as de melhor custo-desempenho, porque são de uso geral, mas a plataforma oferece também algumas VMs otimizadas para atender necessidades específicas, como, por exemplo, grande carga de processamento (tipo C2), no caso de jogos e algoritmos pesados, ou sistemas que requeiram muita memória (M1 e M2), como grandes bases dados ou algoritmos de uso intenso de memória. Neste último caso, por exemplo, uma única máquina virtual pode conter até 12 TB de memória RAM. A plataforma ainda permite que dados nas VMs sejam criptografados, por questões de confidencialidade, e oferece um serviço de recomendação de dimensionamento automático. Assim, a plataforma sugere redução ou expansão dos recursos, de acordo com o uso. DATA FLOW Em muitas aplicações empresariais, é preciso lidar com um enorme fluxo de dados produzidos em tempo real, muitas vezes, por fontes distintas. Isso acontece com redes de IoT (Internet of Things). As empresas precisam não somente armazenar os dados entrantes, mas também processá-los. Acontece que os dados nem sempre vêm no formato esperado. O serviço de Data Flow do Google cuida de recebê-los e fazer o processamento necessário para formatá-los ou transformá-los, então persistidos, para que sejam posteriormente lidos e analisados. Em todo esse processamento intermediário, realizado após a coleta dos dados e antes da entrega final, eles são organizados em um tipo genérico chamado de PCollection. O Data Flow permite o encadeamento de transformações em batch (pipeline), modificando os dados passo a passo, e salvando-os sempre como PCollections, de maneira automática. Esse pipeline pode ser tanto escrito em Java quanto em Python e é chamado de Data Flow Job. A plataforma permite que o cliente crie diversos pipelines que reutilizam código e são executados paralelamente. Ao final da última transformação, os dados são armazenados em um Data Sink e podem ser, então, analisados ou usados de qualquer outra forma. COMENTÁRIO É possível também contratar serviços de Análise de Dados do Google para realizar a tarefa. CLOUD SQL Cloud SQL é o serviço de banco de dados na nuvem oferecido pela plataforma do Google. Ele é baseado no MySQL, PostgreSQL e SQL Server. Através do Console, o cliente pode facilmente instanciar qualquer um dos bancos citados, bem como gerenciar a capacidade de armazenamento, criar réplicas e realizar backups. É possível automatizar a criação de backup por meio da configuração no Console. O serviço ainda fornece ferramentas integradaspara migração de dados e drivers para conexão. De forma similar às VMs, o cliente, ao provisionar o banco de dados na nuvem, precisa escolher a região em que ele será hospedado. Isso permite flexibilidade para que o banco seja posicionado o mais próximo quanto possível dos usuários, reduzindo tempo de acesso. Ainda é possível escolher a quantidade de memória e a quantidade de CPUs da máquina que servirá o banco, bem como o tipo de disco rígido, se convencional ou SSD (SOLID STATE DRIVE). COMENTÁRIO A empresa de consultoria Garter posicionou o Google Cloud como líder de sistemas de bancos de dados em nuvem, em 2020. ANTHOS É muito difícil para uma grande empresa usar apenas um provedor de serviços de nuvem. A heterogeneidade é comum e aumenta a complexidade de gerenciamento dos recursos virtuais, bem como riscos associados com permissões de utilização e cotas de uso. Para mitigar esse problema, o Google oferece o serviço Anthos, que é um sistema de gestão de recursos na nuvem multiplataforma. Com ele é possível gerenciar a infraestrutura tanto da Google Cloud do cliente, como nuvens privadas e plataformas de nuvens públicas de outros fabricantes. O Anthos permite gerenciar clusters Kubernetes, serviços, regras de acesso, alarmes, verificar informações operacionais e automatizar procedimentos, como o carregamento de aplicações, independentemente da plataforma onde eles estão ativos. O cliente, então, tem a visão de toda sua infraestrutura em nuvem completa e consolidada em um único sistema, o Anthos, e pode usá-lo para otimizar o uso dos seus recursos, manualmente. Entretanto, a plataforma também faz recomendações automáticas de otimização sobre o uso dos recursos instanciados. Ainda é possível estabelecer regras e políticas para diferentes regiões distintas, cruzando diferentes plataformas, basta organizá-los em grupos lógicos chamados de environs. O APELO DO SERVIÇO É REDUZIR A COMPLEXIDADE E A QUANTIDADE DE HORAS NECESSÁRIAS PARA GERENCIAR UM AMBIENTE HETEROGÊNEO, NECESSITANDO DE MENOS GENTE PARA ISSO. CLOUD STORAGE O Cloud Storage é a solução do Google para a gestão de arquivos na nuvem. De fato, o serviço funciona como um servidor de arquivos hierarquizado. O cliente pode espelhar a estrutura de projetos da empresa nele. Cria-se uma organização, que pode representar um departamento ou mesmo toda a empresa. Os projetos estão subordinados à entidade organização. Cada projeto é independente e consome seus próprios recursos do Cloud Storage. Abaixo de cada um deles, estão os buckets, os organizadores lógicos genéricos para os arquivos. O cliente carrega os arquivos, sejam fotos, vídeos ou relatórios, e os associa com os devidos buckets de acordo com lógica organizacional. Além dos serviços citados, o módulo chamado de IAM (Identify and Access Management) faz parte do Console. Ele é responsável pelas regras de segurança, autorização e identificação de acesso para a plataforma. A partir dele, o usuário administrador pode adicionar e criar perfis de usuários para interagir com recursos específicos: podem ser segmentados por times, departamentos, áreas da empresa, e cada equipe tem visibilidade apenas dos seus recursos. Também é possível estabelecer cotas de utilização, para evitar que o orçamento seja consumido de forma desigual entre os times. O CONSOLE PODE SER ACESSADO DE DIVERSAS FORMAS, SENDO O COMPUTADOR PESSOAL A MAIS USADA. Entretanto, o Google disponibiliza aplicativos para smartphones que rodam tanto iOS como Android, e que funcionam como clientes leves para o Google Cloud, permitindo ao cliente monitorar recursos e usuários da mesma maneira, em um computador de mesa ou notebook. Outro recurso interessante da plataforma é o marketplace, em que é possível encontrar fornecedores que customizaram ou desenvolveram soluções diversas, desde aprendizado de máquina, até migração de dados ou pacotes de aplicativos. A maioria dos produtos listados é vendida, mas é possível encontrar muitos gratuitos. Imagem: Shutterstock.com AWS CLOUD AWS é a plataforma de nuvem da Amazon. Ele funciona de forma semelhante ao Google Cloud. É preciso criar uma conta que dará acesso a interface do usuário. Atualmente, a AWS conta com diversos data centers espalhados pelo mundo, organizados em 25 regiões geográficas, subdivididas em 80 zonas de disponibilidade. Devido a essa capilaridade, a empresa promete oferecer a menor latência entre as concorrentes: abaixo de dez milissegundos. A partir do Console, é possível instanciar e configurar recursos, bem como contratar serviços. São mais de 200, que rivalizam com o Google Cloud. Os serviços são organizados em categorias, como Análise, Computação, Bancos de Dados, Blockchain, Robótica, Satélite, Game Tech, Armazenamento, Tecnologias Quânticas, Serviços de Mídia, entre outras. Alguns dos serviços mais populares são: AMAZON S3 (AMAZON SIMPLE STORAGE SERVICE) Ele consiste num serviço de armazenamento de dados para Big Data. O cliente então pode carregar e recuperar massas de dados muito grande, até 5 terabytes, bem como gerenciar acessos e permissões. O serviço S3 é para dados que precisam ser acessados frequentemente. AWS LAMBDA O serviço AWS Lambda permite ao cliente carregar funções na nuvem e executá-las de forma transparente, sem a necessidade de configurar um servidor. Ele é escalável e bastante flexível. O serviço faz o dimensionamento automático, de acordo com a carga de trabalho. AMAZON GLACIER Além do S3, a Amazon oferece um serviço de armazenamento de longo prazo que custa apenas um dólar por terabyte por mês, porém, cobra pelo tempo de acesso aos dados. Além disso, o serviço garante uma taxa de durabilidade de 99.99%, porque persiste os dados de forma redundante, em diversos discos localmente, mas também em diferentes data centers, implementando proteção contra desastres de forma transparente para o cliente. ATENÇÃO Diferentemente do S3, o Glacier deve ser usado para guardar grandes quantidades de dados por longos períodos, sem que haja a necessidade de consultá-los frequentemente. AMAZON EC2 A empresa disponibiliza serviços computacionais através do Amazon EC2. No portal, o cliente pode instanciar diversos tipos de máquinas virtuais, escolhendo desde o processador (capacidade de processamento), sistema operacional memória e disco. O serviço é extremamente seguro, flexível e escalável, permitindo melhorias (upgrades) e rebaixamentos (downgrades) nas máquinas contratadas. A empresa alega ter cerca de 400 tipos de instâncias diferentes, suportando inclusive macOS e provê um SLA de 99.99% de disponibilidade. Além dos diversos serviços, e similarmente ao Google Cloud, a plataforma AWS também oferece um marketplace, em que diversos fornecedores parceiros oferecem suas soluções aos clientes da plataforma. As soluções podem ser do tipo SaaS e API. O cliente pode escolher pagar mensalmente, conforme o uso, ou pagar pela previsão de uso nos próximos anos, até três anos. COMENTÁRIO Uma vez que o cliente compra o que deseja, a entrega tanto pode ser feita pela Amazon, pelo marketplace, ou diretamente pelo fornecedor. IBM CLOUD IBM Cloud é uma plataforma de computação em nuvem de propriedade da empresa de mesmo nome, que implementa serviços baseados na nuvem. Ela oferece tanto nuvem pública como híbrida e suporta gerenciamento multicloud. Similarmente ao Google Cloud e ao Amazon AWS, ela tem presença global com vários data centers posicionados em regiões distintas. A IBM Cloud oferece serviços de infraestrutura (IaaS) e de plataforma (PaaS) para pequenas, médias e grandes empresas. Entre eles, destacamos servidores virtuais (VMs) e físicos (nuvem híbrida), Containers etc. Todos os recursos podem ser gerenciados através do IBM Cloud Console, inclusive a segurança do ambiente, usando-se controles para gerenciamento de acesso e de identidade. O catálogo de produtos oferecidos pela plataforma é bem menor do que o das duas anteriormente vistas,mas possui pontos de diferenciação que podem justificar sua escolha, como, por exemplo, o sistema de inteligência artificial Watson. Além disso, grandes empresas, por causa do porte, podem barganhar termos melhores junto à IBM, fazendo contratos customizados. Entretanto, isso não é possível no AWS, nem na Google Cloud. Os seguintes grupos de serviços estão disponíveis através do Console: Compute, Blockchain, Databases, Containers, Developer Tools, AI e Machine Learning, Mobile, Integration, Internet of Things, entre outros. Alguns são muito parecidos com os de suas concorrentes. COMPUTE Serviço de recursos computacionais, em que tanto máquinas virtuais como servidores bare metal podem ser configurados e instanciados. BLOCKCHAIN O serviço de Blockchain da IBM Cloud permite ao cliente criar uma rede descentralizada baseada na tecnologia de mesmo nome. Ela disponibiliza também a tecnologia Hyperledger Fabric, desenvolvida em consórcio com outras empresas. Essa tecnologia permite incorporar componentes de Blockchain, como o mecanismo de consenso, a outras aplicações rapidamente, de forma plug and play. DATABASES É o serviço de banco de dados em nuvem da IBM. A plataforma disponibiliza bases de dados relacionais como MySQL e PostgreSQL, bem como bases não relacionais (NoSQL), como MongoDB e Apache CouchDB. CONTAINERS O serviço de Containers da IBM Cloud é baseado no Kubernetes. Através do Console, o cliente pode automatizar a criação de clusters Kubernetes, bem como isolar e monitorar aplicações em Containers. DEVELOPER TOOLS A plataforma da IBM disponibiliza diversas ferramentas para que o cliente interaja com as aplicações e as faça evoluir. Uma delas é o IBM Cloud CLI (Command Line Interface), que permite a criação de scripts automáticos capazes de realizar diversas tarefas, como a instanciação automática de recursos na nuvem. AI E MACHINE LEARNING Uma das aplicações mais conhecidas de IA da IBM é o serviço IBM Watson Machine Learning. O cliente pode carregar modelos de aprendizado de máquina e inteligência artificial para operar sobre os dados carregados na nuvem. MOBILE O serviço Mobile permite que o cliente desenvolva e gerencie aplicativos para plataformas móveis. Para isso, a plataforma oferece diversas SDKs completamente integradas ao ambiente na nuvem. O Mobile Developer Console é a interface que ajuda o cliente a desenvolver e instanciar seus aplicativos para plataformas móveis. INTEGRATION Hoje em dia, mais do que nunca, as empresas empreendem esforços para conectar sistemas. Integração de sistemas, portanto, tem um papel bastante relevante na modernização de ambientes sistêmicos. A IBM Cloud oferece diversos serviços de integração para seus clientes. O IBM Cloud Park é um deles. A empresa alega que usando o sistema, a velocidade do desenvolvimento pode aumentar em até 300%. INTERNET OF THINGS O serviço de IoT da IBM permite ao cliente conectar milhares ou até mesmo milhões de dispositivos de forma prática e rápida. Além disso, através do Console, o usuário pode gerenciá-los, e através das APIs conectar com dispositivos para fazer atualizações ou configurações em lote. AS PLATAFORMAS DE COMPUTAÇÃO EM NUVEM PARA IOT Assista ao vídeo e aprofunde o seu conhecimento sobre as três plataformas de computação em nuvem para IoT. VERIFICANDO O APRENDIZADO 1. ASSINALE A ALTERNATIVA QUE MELHOR DESCREVE UMA NUVEM PÚBLICA: A) Os serviços estão disponíveis a qualquer cliente através da internet e usa recursos compartilhados entre os inquilinos, porém, de forma transparente. B) Os serviços não estão disponíveis a qualquer cliente através da internet e usa recursos compartilhados entre os inquilinos, porém, de forma transparente. C) Os serviços estão disponíveis a qualquer cliente através da internet e usa recursos físicos dedicados entre os inquilinos, porém, de forma transparente. D) Os serviços estão disponíveis a qualquer cliente através da internet e usa recursos compartilhados entre os inquilinos, em que todos têm conhecimento da divisão destes. E) Os serviços estão disponíveis através de uma rede privada, desconectada da internet e usa recursos compartilhados entre os inquilinos, porém, de forma transparente. 2. QUAL DOS SERVIÇOS A SEGUIR É ESPECÍFICO DA IBM CLOUD? A) Big Query. B) Compute Engine. C) Anthos. D) Watson. E) Lambda. GABARITO 1. Assinale a alternativa que melhor descreve uma nuvem pública: A alternativa "A " está correta. Na nuvem pública, os serviços estão disponíveis para o público em geral através da internet. Além disso, os recursos físicos subjacentes são compartilhados entre os inquilinos (tenants) sem que estes tenham visibilidade sobre isto. 2. Qual dos serviços a seguir é específico da IBM Cloud? A alternativa "D " está correta. O serviço Watson faz parte da categoria AI/Machine Learning da IBM Cloud. Ele é específico para essa plataforma. Os outros serviços listados não são parte da IBM Cloud. MÓDULO 2 Descrever os conceitos de Big Data e Analytics aplicados no contexto de computação em nuvem O QUE É INDÚSTRIA 4.0 A quarta revolução industrial ou, como é mais popularmente chamada, a indústria 4.0 é o resultado da evolução e dos melhoramentos dos processos de manufatura nas três gerações anteriores (a primeira revolução ocorreu após o advento de ferrovias e máquinas a vapor); agora, a indústria 4.0 vem sendo enriquecida com a convergência das tecnologias de aprendizado de máquina (Machine Learning), Inteligência Artificial, Analytics, internet das coisas (IoT) e virtualização (Cloud). Imagem: Shutterstock.com COMENTÁRIO Isso só é possível porque na etapa anterior, iniciada na década de 1960, empresas e processos fabris adotaram a tecnologia de informação e posteriormente transformaram-se digitalmente (revolução digital): foram automatizados (robotizados), interconectados, conectados à internet e passaram a produzir dados digitais. Muitos autores afirmam também que está havendo uma conexão entre o mundo físico e o biológico. ASSIM COMO SUAS ANTECESSORAS, O OBJETIVO DA INDÚSTRIA 4.0 TAMBÉM É TORNAR OS PROCESSOS DE FABRICAÇÃO MAIS EFICIENTES E PRODUTIVOS, AGILIZANDO-OS, REDUZINDO CUSTOS E INEFICIÊNCIAS. Entretanto, a novidade é que a quarta revolução industrial quer tornar os processos fabris inteligentes e até certa medida, autônomos, descentralizados e virtualizados. Além disso, há diversas externalidades positivas. A revolução vigente é bastante diferente de suas predecessoras em outros aspectos. Tome-se, por exemplo, o perfil médio do trabalhador de chão de fábrica. Ele está mudando. Via de regra, a atividade fabril é intensa em mão de obra e esse trabalhador é remunerado minimamente. Há, inclusive, o uso de mão de obra infantil em países subdesenvolvidos. Entretanto, automação, analytics, uso intensivo de sistemas em nuvem, sensores dos mais diversos e aplicação de IA estão reduzindo a necessidade desses trabalhadores menos capacitados e demandando profissionais mais qualificados: engenheiros de sistemas, programadores e cientistas de dados, que são mais bem remunerados. Foto: Shutterstock.com O contraste existe também quanto ao impacto no meio ambiente. Equipamentos, sensores e materiais que consomem cada vez menos eletricidade estão ajudando a viabilizar o uso de energia renováveis, reduzindo o uso de combustíveis fósseis e, consequentemente, poluindo e degradando menos o ambiente. A MUDANÇA DE PARADIGMA CONSISTE, PORTANTO, EM TORNAR AS FÁBRICAS INTELIGENTES. Para isso, é preciso mudar os processos vigentes. Note que a transformação digital produziu e tornou disponível dados de toda a cadeia de produção incluindo logística. Engenheiros e analistas cuidavam de armazenar os dados em bancos ou arquivos, formatá-los, para depois analisá-los aplicando técnicas e ferramentas de BI (Business Intelligence) para extrair significado. Agora, nas fábricas inteligentes, os dados são processados em tempo real. A sociedade já começa a perceberos resultados da quarta onda da revolução industrial. Os veículos autônomos são os exemplos mais emblemáticos. Carros conscientes do seu entorno e capazes de navegar de forma autônoma em vias públicas já estão nas ruas. Alguns modelos do fabricante de automotores Tesla já são comercializados com computadores de bordo, que permitem ao motorista largar o volante e apenas desfrutar o passeio. Veículos aéreos autônomos vêm sendo largamente usados, seja na agricultura para monitoramento de plantações ou de gado, seja na indústria de defesa: diversos países empregam drones munidos de câmeras especiais, sensores infravermelhos e toda uma parafernália que os torna capazes de coletar informações estratégicas do campo de batalha e realizar monitoramento de tropas e pessoal. Atualmente, os Estados Unidos vivem uma escassez de motoristas de caminhão. Em resposta, diversas empresas já estão trabalhando para viabilizar caminhões ou comboios de caminhões autônomos para transporte de carga interestadual. Até o momento, legislação, regulamentação e outros aspectos legais e jurídicos têm limitado a difusão de veículos autônomos mais do que a tecnologia existente. Para ilustrar bem essa junção de produtos existentes com as novas tecnologias 4.0, voltemos aos carros autônomos. Cada veículo consiste em um enorme conjunto de sensores inteligentes e modernos capazes de fornecer um volume sem precedentes de dados, por segundo. Imagine um carro que se move numa pista de alta velocidade. Parte do processamento dos dados coletados do ambiente é feito pelo computador do automóvel, mas muito da computação precisa ser realizada em computadores remotos. Os dados são, então, enviados pela internet para servidores na borda da rede de telecomunicações que estejam o mais próximo quanto possível do automóvel. Neles, diversas funções virtuais hospedadas em máquinas também virtuais são alocadas para processar o fluxo de dados entrante e retornar para o veículo. Imagem: Shutterstock.com É tudo muito dinâmico, porque o carro está em movimento, trocando de antenas o tempo todo, e pode, inclusive, acessar diferentes servidores. A rede de telecomunicações, portanto, precisa proporcionar altas velocidades de transmissão e ter baixa latência para permitir que essa troca de informações seja quase em tempo real. Por isso, a rede 5G é tão esperada, pois ela viabilizará diversos produtos da indústria 4.0. É verdade que ver carros movendo-se sem intervenção humana impressiona, mas eles são uma fração da mudança que está começando. A quarta revolução industrial afetará de forma disruptiva diversas indústrias, não apenas a automotiva, mas a de transporte, de aço, a naval, têxtil, de segurança, defesa, mineração e a agricultura. Todas elas apostam em mudanças radicais no modo de operar seus processos industriais. BIG DATA Big Data é um dos pilares da indústria 4.0. Conceitualmente, consiste em enormes quantidades de todo tipo de dado, estruturados ou não. É um volume tão grande, que pode superar dezenas de exabytes e requer técnicas especiais de gerenciamento, não apenas pelo seu tamanho, mas também pela complexidade. Tudo fica mais complicado, desde o armazenamento, processamento, a análise, e sobretudo, a transferência e a visualização deles. OFICIALMENTE, O VOLUME DE DADOS PASSA A SER BIG DATA QUANDO AS CARACTERÍSTICAS DOS DADOS IMPEDEM QUE SEJAM USADOS OS MÉTODOS CONVENCIONAIS PARA GERENCIÁ-LOS, E ANALISÁ- LOS. Um exemplo típico é trocar bancos de dados relacionais por NoSQL (não relacionais). Além disso, alguns autores falam em 5 Vs (vês) do Big Data, que seriam as características básicas: Valor. Variedade. Volume. Velocidade. Veracidade. ATENÇÃO É importante mencionar os cuidados que a indústria 4.0 precisa ter quanto à privacidade e a proteção desses dados. No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD), normatiza o tratamento que os dados privados devem receber para preservar os direitos fundamentais das pessoas e empresas. Ela é válida para todo o território nacional e foi sancionada em agosto de 2018. Um dos pontos mais importantes da lei é que ela define o que são dados pessoais e estabelece outros princípios, como o da necessidade do consentimento do cidadão, da finalidade e da necessidade para coleta do dado, da responsabilidade de fiscalização, e as penalidades que devem incorrer sobre quem não respeitar a lei. COMENTÁRIO O Big Data na quarta revolução industrial começa com a necessidade de gerir, proteger e extrair valor dessa enorme quantidade de informação, mas também, e sobretudo, fazê-lo de forma eficiente. As empresas que se transformaram digitalmente em anos recentes e mesmo as que nasceram digitais, precisaram contratar pessoal, desenvolver políticas, práticas e processos para gerenciar a grande quantidade de informação produzida diariamente e que está geograficamente dispersa. Os dados são oriundos das mais diversas fontes: Dados de telemetria enviados por sensores e equipamentos sofisticados aplicados diretamente ou que suportam indiretamente a linha de produção e que são consolidados em sistema de controle industriais em larga escala (SCADA, DCS, PLC). Fluxos de dados provenientes dos sensores de milhares de dispositivos de IoT. Registros das interações de usuários com os portais ou canais de atendimento da empresa, perfis sociais, ordens de compra, devoluções, controle de estoque, logística, comentários em redes sociais, transações, avaliações de produtos, dados históricos e mineração de dados brutos da internet. Esse novo cenário tecnológico vem apresentando novos desafios às empresas que começaram a usar tecnologias e processos da indústria 4.0. Não é raro que grandes companhias tenham operações em diversos países. Uma das gigantes de vendas no varejo por internet no mundo opera cerca de dez data centers (DC) próprios, geograficamente dispersos com milhares de computadores físicos e máquinas virtuais. Com a migração para nuvem, os DCs passaram a responder por todo o poder computacional da empresa e cresceram enormemente. Em cada um deles, milhares de operações em batch são executadas diariamente, e muitos processos acessam dados de outros DCs. Isso porque sistemas de gestão empresariais, logística, vendas, CRM e principalmente analytics precisam cada vez mais cruzar e consolidar dados. O crescimento desse acesso cruzado vem consumindo cada vez mais banda da rede WAN que os conecta. Isso tem elevado sobremaneira os custos de operação, não somente da empresa, mas de muitas outras que operam data centers geograficamente muito distantes. Para mitigar esse problema, muitas vêm desenvolvendo e aplicando técnicas modernas de realocação e replicação de dados e processos, de acordo com critérios que visam otimizar o desempenho e reduzir o uso de banda da rede WAN. Ainda, é preciso que qualquer solução adotada para esse fim permita a empresa escalar e manter níveis baixos de interdependência entre processos. Outro problema típico é a dificuldade de sincronização de dados entre DCs para suportar alta disponibilidade: HA (High Availability). Um ambiente sistêmico virtual contendo aplicações empresariais disponíveis para milhares ou milhões de usuários possui de centenas a milhares de máquinas virtuais, trabalhando de forma coordenada. Algumas máquinas virtuais são responsáveis pelo payload: sistema que é o motivo da arquitetura existir. Outras máquinas virtuais cumprem as mais diversas funções, como: hospedar bases de dados, logs, backups locais, perfis de configuração, balanceamento de carga etc. O ambiente é clusterizado e replicado em pelo menos outro DC geograficamente distante, para servir de salvaguarda para uma situação de catástrofe. Tem-se, então, o cluster principal e o de stand by. Em caso de uma falha grave do cluster principal, é preciso reverter toda operação de forma transparente ao usuário final para o ambiente de modo de espera. Isso implica a sincronização de centenas de basesde dados e a transmissão de centenas de terabytes de informação, não apenas das transações vigentes, mas as configurações das máquinas virtuais e os estados em que elas se encontram. COMENTÁRIO Obviamente que ambos os ambientes precisam ser sincronizados regularmente porque ambos os ambientes precisam estar consistentes, mas o volume de dados cada vez maior tem demandado janelas de operação também cada vez mais longas. As empresas vêm batalhando para reduzir esse tempo. Diversas soluções estão sendo usadas, mas a mais promissora delas é a tecnologia Software Defined Wide Area Network (SDWAN). Ela permite que se estabeleça um path temporário de alta velocidade para transmissão dos dados, viabilizando, portanto, a sincronização entre clusters. ANALYTICS A moderna análise de dados na indústria 4.0 começou com a enxurrada de dados produzidos em todos as etapas da operação da empresa, desde a compra de insumos, passando pela fabricação ou transformação do produto até sua venda e a interação dos clientes com os portais e canais de atendimento da empresa. O fato é que a introdução maciça de sensores no chão de fábrica e até mesmo máquinas autônomas e dispositivos de IoT começou a produzir um gigantesco volume de dados. Acontece que os dados brutos precisam ser tratados, transformados, categorizados e persistidos em uma base de Big Data para eliminar qualquer tipo de inconsistência ou ruído antes de serem analisados, muitas vezes em tempo real. Entretanto, devido ao volume, essa tarefa é impossível de ser feita manualmente. A ANÁLISE DE DADOS VEM DESEMPENHANDO UM PAPEL IMPORTANTE NA INDÚSTRIA 4.0, POIS POSSIBILITA QUE AS EMPRESAS SEJAM MAIS EFICIENTES AO SUBMETER OS DADOS ANALISADOS A DIVERSOS TIPOS DE ALGORITMOS. Muitas empresas estão usando modelos de Inteligência Artificial ou de Machine Learning para extrair significado deles, encontrar padrões de comportamento, fazer predições, classificações e até sugerir produtos e serviços para seus clientes. EXEMPLO Empresas que operam frotas de veículos ou grande parque de máquinas estão usando os dados coletados da maquinaria para antecipar falhas e tornar a manutenção preventiva mais eficiente, além de prever quando uma máquina vai falhar. Todavia, a análise de dados não é uma tarefa fácil, tampouco simples. Ela envolve a coleta e a transformação de grandes quantidades de dados, além do uso de algoritmos e sistemas avançados. É uma tarefa bastante complexa. As empresas vêm usando plataformas em nuvem para hospedar e analisar os dados, porque é muito rápido e barato organizar a infraestrutura. Além disso, não são necessários grandes investimentos iniciais. Existem basicamente quatro tipos de análises de dados que podem ser executadas no contexto da indústria 4.0, dependendo do tipo e da quantidade de dados disponíveis. ANÁLISE DESCRITIVA Ela consolida os dados e informa o que está acontecendo na operação, sempre usando os dados mais recentes e, muitas vezes, em tempo real. Também é possível usar o histórico de dados para revelar tendencias e tipificar cenários evolutivos. A visualização dos dados aqui é extremamente importante. ANÁLISE PREDITIVA A análise preditiva requer que os especialistas da empresa treinem modelos matemáticos capazes de simular comportamentos futuros baseados no histórico de dados. Aqui, frequentemente, a figura de um cientista de dados é necessária para os casos mais complexos, visto a dificuldade do tema. O modelo matemático, quando bem treinado e isento de overfitting, pode revelar padrões e comportamentos extremamente relevantes sobre o futuro da operação da companhia. ANÁLISE PRESCRITIVA Muitas empresas implementaram assistência automática para prescrição de melhores práticas ou ajustes para tornar a operação mais eficientes. Novamente aqui, modelos matemáticos são treinados para que o sistema que opera sobre os dados consiga identificar as ineficiências da empresa e fazer recomendações de ajustes operacionais. javascript:void(0) ANÁLISE DIAGNÓSTICA A análise diagnóstica é empregada para identificar a causa de problemas e falhas. Comumente chamada de diagnóstico de causa-raiz (root cause), é um dos tipos mais complexos, porque requer que o problema seja completamente esmiuçado. Um cenário típico é o de cientistas de dados analisando séries temporais sobre a operação da empresa. Concluindo, e a despeito da análise que venha a ser empregada, as empresas já notaram que analisar os dados significa aumentar a produtividade e a receita, seja pela economia de custos operacionais, identificação de pontos de ineficiência ou falhas, redução de acidentes, otimização de processos ou pelo aumento das vendas. De fato, empresas em quase todos os segmentos da indústria, turismo, logística, saúde etc. estão usando análise de dados para suportar tomada de decisões estratégicas. OVERFITTING Overfitting ocorre quando o modelo se adaptou muito bem aos dados com os quais está sendo treinado; porém, não generaliza bem para novos dados. Ou seja, o modelo decorou o conjunto de dados de treino, mas não aprendeu de fato o que diferencia aqueles dados para quando precisar enfrentar novos testes. BIG DATA E ANALYTICS NA INDÚSTRIA 4.0 Não deixe de assistir sobre o papel do Big Data e Analytics na indústria 4.0. VERIFICANDO O APRENDIZADO 1. MARQUE A ALTERNATIVA QUE CONTÉM TECNOLOGIAS FUNDAMENTAIS E QUE FAZEM PARTE DA INDÚSTRIA 4.0: A) Automação, IoT e internet 4G. B) Internet das Coisas e processos robotizados. C) Inteligência Artificial, IoT e Transformação Digital. D) Machine Learning, IoT e virtualização. E) Transformação Digital e Machine Learning. 2. MARQUE A SEGUIR A OPÇÃO QUE CONTÉM UMA ALTERNATIVA CORRETA SOBRE TIPOS DE ANÁLISES. A) Análise prescritiva e cognitiva. B) Análise diagnóstica e cumulativa. C) Análise diagnóstica e sensitiva. D) Análise diagnóstica e preditiva. E) Análise preemptiva e descritiva. GABARITO 1. Marque a alternativa que contém tecnologias fundamentais e que fazem parte da indústria 4.0: A alternativa "D " está correta. A quarta revolução industrial é baseada nas tecnologias de aprendizado de máquina (Machine Learning), Inteligência Artificial, Analytics, internet das coisas (IoT) e virtualização (Cloud). 2. Marque a seguir a opção que contém uma alternativa correta sobre tipos de Análises. A alternativa "D " está correta. Os tipos de análises de dados são apenas: descritiva, diagnóstica, preditiva e prescritiva. CONCLUSÃO CONSIDERAÇÕES FINAIS A computação em nuvem é uma realidade consolidada e muitas empresas já moveram seus ambientes sistêmicos de TI para algumas das plataformas baseadas em nuvens existentes no mercado. No que tange à tecnologia IoT, devido ao volume de dados transmitidos e a quantidade de dispositivos conectados, usar as plataformas baseadas em nuvem é fundamental para reduzir tanto custos de operação quanto a complexidade de gestão da rede. No primeiro módulo, apresentamos os conceitos básicos de computação na nuvem, bem como as vantagens que justificam sua adoção. Falamos também de três plataformas bastante utilizadas no mercado, identificamos os principais serviços disponíveis e explicamos como usar a documentação disponibilizada pelo fabricante para entender melhor o seu funcionamento. Finalmente, no último módulo, analisamos o conceito de indústria 4.0, bem como as principais tecnologias que o suportam. Compreendemos o conceito de Big Data e como a análise de dados (analytics) está presente nas empresas 4.0 e seus principais tipos. AVALIAÇÃO DO TEMA: REFERÊNCIAS IBM. What is the IBM Cloud platform? IBM, 19 maio 2021. LIN, S. W.; MURPHY, B.; CLAUER, E.; LOEWEN, U.; NEUBERT, R.; BACHMANN, G.; PAI, M.; HANKEL, M. Architecture Alignment and Interoperability. An Industrial Internet Consortium and Plattform Industrie 4.0 Joint Whitepaper. The Industrial Internet Consortium, 5 fev. 2017. MELL, P.; GRANCE, T. The NIST Definition of Cloud Computing. Recommendations of the NationalInstitute of Standards and Technology. Gaithersburg: NIST, set. 2011. WATTS, S.; RAZA, M. SaaS vs PaaS vs IaaS: What’s the Difference & How To Choose. Irvine: BMC, 15 jun. 2019. EXPLORE+ Acesse o site das plataformas de computação em nuvem Amazon AWS, IBM Cloud e Google Cloud e verifique as características dos serviços que são oferecidos por cada um. CONTEUDISTA Michel Souza Medeiros CURRÍCULO LATTES javascript:void(0);
Compartilhar