Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

<p>W</p><p>BA</p><p>04</p><p>29</p><p>_2</p><p>.0</p><p>ANALYTICS E INTELIGÊNCIA</p><p>ARTIFICIAL (IA)</p><p>2</p><p>Marcelo Henrique dos Santos</p><p>Londrina</p><p>Editora e Distribuidora Educacional S.A.</p><p>2023</p><p>ANALYTICS E INTELIGÊNCIA ARTIFICIAL (IA)</p><p>1ª edição</p><p>3</p><p>2023</p><p>Editora e Distribuidora Educacional S.A.</p><p>Avenida Paris, 675 – Parque Residencial João Piza</p><p>CEP: 86041-100 — Londrina — PR</p><p>Homepage: https://www.cogna.com.br/</p><p>Diretora Sr. de Pós-graduação & OPM</p><p>Silvia Rodrigues Cima Bizatto</p><p>Conselho Acadêmico</p><p>Alessandra Cristina Fahl</p><p>Ana Carolina Gulelmo Staut</p><p>Camila Braga de Oliveira Higa</p><p>Camila Turchetti Bacan Gabiatti</p><p>Giani Vendramel de Oliveira</p><p>Gislaine Denisale Ferreira</p><p>Henrique Salustiano Silva</p><p>Mariana Gerardi Mello</p><p>Nirse Ruscheinsky Breternitz</p><p>Priscila Pereira Silva</p><p>Coordenador</p><p>Nirse Ruscheinsky Breternitz</p><p>Revisor</p><p>Márcio Fernandes Leão</p><p>Editorial</p><p>Beatriz Meloni Montefusco</p><p>Carolina Yaly</p><p>Márcia Regina Silva</p><p>Paola Andressa Machado Leal</p><p>Dados Internacionais de Catalogação na Publicação (CIP)_____________________________________________________________________________</p><p>Vieira, Gil Correia Kempers</p><p>Técnicas para prevenção de desastres/ Gil Correia</p><p>Kempers Vieira, – Londrina: Editora e Distribuidora</p><p>Educacional S.A., 2023.</p><p>33 p.</p><p>ISBN 978-65-5903-447-5</p><p>1. Desastres naturais. 2. Redução de risco de</p><p>desastres. 3. Defesa civil. I. Título</p><p>CDD 363.347</p><p>_____________________________________________________________________________</p><p>Raquel Torres – CRB 8/10534</p><p>V658t</p><p>© 2023 por Editora e Distribuidora Educacional S.A.</p><p>Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida ou</p><p>transmitida de qualquer modo ou por qualquer outro meio, eletrônico ou mecânico, incluindo</p><p>fotocópia, gravação ou qualquer outro tipo de sistema de armazenamento e transmissão de</p><p>informação, sem prévia autorização, por escrito, da Editora e Distribuidora Educacional S.A.</p><p>4</p><p>SUMÁRIO</p><p>Apresentação da disciplina __________________________________ 05</p><p>AI Generativa como modelo probabilístico ___________________ 07</p><p>Modelos Avançados de IA Generativa ________________________ 17</p><p>Tomadas de Decisão com base em Inteligência Artificial _____ 30</p><p>Automatização de Tarefas e Aumento de Produtividade</p><p>com IA _______________________________________________________ 42</p><p>Infraestrutura como Código com IA __________________________ 54</p><p>ANALYTICS E INTELIGÊNCIA ARTIFICIAL (IA)</p><p>5</p><p>Apresentação da disciplina</p><p>Bem-vindo(a) à disciplina Analytics e Inteligência Artificial Generativa. Ao</p><p>longo dessa jornada, iremos explorar os fundamentos e aplicações</p><p>da IA generativa, mergulhar em modelos avançados como GANs e</p><p>Transformers e aprender como a IA pode revolucionar a tomada de</p><p>decisões, automatizar tarefas e aumentar a produtividade.</p><p>Em um mundo impulsionado por dados e inovação, a IA é uma</p><p>habilidade crítica. Imagine aplicar modelos de IA generativa para gerar</p><p>dados e conteúdos inovadores, tomar decisões embasadas em dados</p><p>e recomendações de sistemas de IA, automatizar tarefas repetitivas</p><p>e ganhar eficiência, além de compreender e aplicar IA generativa</p><p>para impulsionar inovação e tomada de decisões estratégicas. Essas</p><p>competências não apenas ampliam suas possibilidades de carreira, mas</p><p>também tornam você um ativo valioso para sua organização.</p><p>Durante este curso, você explorará:</p><p>• IA Generativa como modelo probabilístico: aprenderá os</p><p>conceitos de probabilidade e como aplicá-los na geração de dados.</p><p>Explorará modelos generativos probabilísticos e suas aplicações.</p><p>• Modelos avançados de IA Generativa: descobrirá Large Language</p><p>Models, Redes Adversárias Generativas (GAN), modelos baseados</p><p>em Transformer e modelos de Autoencoder Variacional.</p><p>• Tomadas de decisão com base em Inteligência Artificial:</p><p>entenderá como a IA pode revolucionar a tomada de decisões com</p><p>base em dados, incluindo sistemas de recomendação e análise de</p><p>cenários.</p><p>6</p><p>• Automatização de tarefas e aumento de produtividade: verá</p><p>exemplos práticos de como a IA é usada para automatizar tarefas e</p><p>ganhar eficiência.</p><p>• Infraestrutura como código com IA: conhecerá a infraestrutura</p><p>como código, ferramentas como Terraform e como implementar IA</p><p>em nuvens públicas.</p><p>Esta disciplina não é apenas uma oportunidade de aprendizado, mas um</p><p>convite para transformar sua abordagem no trabalho e na tomada de</p><p>decisões. Prepare-se para se destacar em sua carreira e explorar o vasto</p><p>potencial da Inteligência Artificial Generativa.</p><p>Bons estudos!</p><p>7</p><p>AI Generativa como</p><p>modelo probabilístico</p><p>Autoria: Marcelo Henrique dos Santos</p><p>Leitura crítica: Henrique Salustiano Silva</p><p>Objetivos</p><p>• Discutir sobre os princípios da IA Generativa como</p><p>modelo probabilístico.</p><p>• Entender os conceitos básicos de probabilidade e</p><p>geração de dados.</p><p>• Visualizar os princípios dos modelos generativos</p><p>probabilísticos.</p><p>8</p><p>1. Introdução à IA Generativa como modelo</p><p>probabilístico</p><p>A inteligência artificial generativa (AI Generativa) é um modelo</p><p>probabilístico amplamente utilizado para a geração de conteúdo</p><p>diversos, como texto, imagens e música. Essa abordagem baseia-se no</p><p>aprendizado da distribuição de probabilidade dos dados de treinamento,</p><p>permitindo a geração de novas amostras que se assemelham ao</p><p>conjunto original. Um exemplo prático é o uso de redes generativas</p><p>adversariais (GANs), que consistem em dois componentes principais:</p><p>o gerador e o discriminador. O gerador recebe um vetor latente</p><p>como entrada e gera amostras sintéticas, enquanto o discriminador é</p><p>treinado para distinguir entre as amostras geradas e as amostras reais.</p><p>O treinamento ocorre por meio de um processo iterativo, no qual o</p><p>gerador busca gerar amostras cada vez mais realistas e o discriminador</p><p>é ajustado para melhor distinguir entre as amostras geradas e as reais</p><p>(Coppin, 2015).</p><p>De acordo com Coppin (2015), no contexto da geração de texto, os</p><p>modelos de linguagem generativos, como o GPT, são amplamente</p><p>utilizados. Esses modelos são treinados em grandes conjuntos de</p><p>dados textuais e aprendem a distribuição probabilística das palavras e</p><p>sua relação contextual. A seguir há uma representação de sistemas de</p><p>geração de textos:</p><p>9</p><p>Figura 1 – Representação de sistemas de geração de textos</p><p>Fonte: Shutterstock.com.</p><p>Com base nesse aprendizado, eles são capazes de gerar texto coerente</p><p>e fluente, levando em consideração o estilo e o tema dos dados de</p><p>treinamento. Além disso, a AI Generativa como modelo probabilístico</p><p>pode ser aplicada em outras áreas, como a composição musical. Por</p><p>exemplo, os modelos podem ser treinados em uma vasta coleção</p><p>de músicas e aprender as características e padrões presentes nesse</p><p>conjunto de dados. Com base nesse conhecimento, eles podem gerar</p><p>novas composições que seguem esses padrões musicais.</p><p>De acordo com Provost e Fawcett (2016), é importante destacar algumas</p><p>limitações desse modelo. A qualidade das amostras geradas pode</p><p>variar e nem sempre atingir o nível de perfeição desejado. Além disso, a</p><p>geração de conteúdo pode estar sujeita a vieses e tendências presentes</p><p>nos dados de treinamento, o que deve ser considerado ao avaliar e</p><p>utilizar essas amostras geradas.</p><p>Por fim, segundo Norvig e Russell (2014), podemos relacionar que a AI</p><p>Generativa como modelo probabilístico é uma abordagem poderosa</p><p>para a geração automática de conteúdo. Com técnicas como GANs e</p><p>modelos de linguagem generativos, é possível criar amostras que se</p><p>assemelham ao conjunto original de dados. Embora apresente desafios</p><p>10</p><p>e limitações, essa abordagem tem demonstrado um grande potencial</p><p>criativo e inovador em várias áreas da inteligência artificial.</p><p>2. Probabilidade e geração de dados</p><p>A probabilidade é um conceito fundamental na teoria das probabilidades</p><p>e estatística, desempenhando um papel fundamental na geração de</p><p>dados em diversas áreas do conhecimento. Ela permite quantificar a</p><p>incerteza associada a eventos e resultados, fornecendo uma base sólida</p><p>para simulações, amostragem e tomada de decisões fundamentadas.</p><p>De acordo com Gabriel (2018), na geração</p><p>2015).</p><p>A Infraestrutura como Código (IaC) revolucionou o gerenciamento</p><p>de recursos de TI. O versionamento do código permite tratá-lo como</p><p>código-fonte, acompanhar alterações, colaborar e fazer rollbacks.</p><p>Boas práticas de DevOps com IaC otimizam a eficiência e consistência,</p><p>enquanto revisão e auditoria melhoram a qualidade do código. A seguir</p><p>há um esquema que apresenta esses elementos e seus benefícios.</p><p>57</p><p>Figura 1 – Esquema apresentando os elementos e benefícios</p><p>da Infraestrutura como Código</p><p>Fonte: elaborada pelo autor.</p><p>Por fim, podemos relacionar que a Infraestrutura como Código é uma</p><p>abordagem técnica que revoluciona a forma como a infraestrutura de</p><p>TI é criada, provisionada e gerenciada. Com o uso de ferramentas como</p><p>Terraform e Ansible, as equipes de desenvolvimento podem automatizar</p><p>a criação e configuração de recursos de infraestrutura, garantindo</p><p>consistência, escalabilidade e agilidade. Por meio do versionamento e da</p><p>integração com práticas de DevOps, a IaC permite uma abordagem mais</p><p>ágil e colaborativa, beneficiando as organizações que buscam eficiência</p><p>e confiabilidade no gerenciamento de sua infraestrutura de TI.</p><p>58</p><p>2. Utilização de Terraform para gerenciamento</p><p>de infraestrutura</p><p>A utilização do Terraform para o gerenciamento de infraestrutura é</p><p>uma prática avançada e altamente técnica que oferece uma série de</p><p>vantagens no provisionamento e configuração de recursos de TI. O</p><p>Terraform é uma ferramenta de Infraestrutura como Código (IaC) que</p><p>permite a criação de uma representação declarativa da infraestrutura</p><p>desejada em um arquivo de configuração (Norvig; Russell, 2014).</p><p>A linguagem utilizada pelo Terraform é chamada de HashiCorp</p><p>Configuration Language (HCL). Ela é projetada para ser fácil de ler e</p><p>escrever, tornando-se acessível mesmo para aqueles que não possuem</p><p>habilidades avançadas em programação. No entanto, também é possível</p><p>utilizar o formato JSON para definir a infraestrutura, se preferido.</p><p>O Terraform possui uma arquitetura modular, o que significa que os</p><p>recursos são organizados em módulos reutilizáveis. Os módulos são</p><p>unidades independentes de configuração que podem ser compostas</p><p>para criar infraestruturas mais complexas. Isso permite uma abordagem</p><p>modular e escalável na criação e gerenciamento da infraestrutura,</p><p>facilitando a reutilização e padronização de componentes. Uma das</p><p>principais características do Terraform é seu gerenciamento de estado.</p><p>O Terraform mantém um arquivo de estado que registra o estado atual</p><p>dos recursos provisionados. Esse arquivo de estado é utilizado para</p><p>realizar alterações incrementais na infraestrutura. Quando o Terraform</p><p>é executado, ele compara o estado atual com o estado desejado definido</p><p>no arquivo de configuração e determina as ações necessárias para</p><p>atingir o estado desejado. Isso permite que o Terraform seja executado</p><p>repetidamente, garantindo que a infraestrutura permaneça consistente</p><p>ao longo do tempo. Segue a reprodução do site oficial do site do</p><p>Terraform.</p><p>59</p><p>Figura 2 – Reprodução do site oficial do Terraform</p><p>Fonte: https://www.terraform.io/. Acesso em: 05 out. 2023.</p><p>Além disso, o Terraform possui suporte nativo para uma ampla</p><p>variedade de provedores de nuvem, como AWS, Azure, Google Cloud e</p><p>muitos outros. Isso permite que as equipes de TI gerenciem recursos</p><p>em diferentes provedores de nuvem usando a mesma linguagem e</p><p>abordagem. O Terraform interage com as APIs dos provedores de</p><p>nuvem para criar, modificar e destruir recursos conforme necessário.</p><p>Outra característica importante do Terraform é a capacidade de planejar</p><p>alterações antes de executá-las. O comando Terraform plan analisa o</p><p>estado atual e o estado desejado definido no arquivo de configuração e</p><p>gera um plano detalhado das alterações que serão realizadas. Isso inclui</p><p>a criação, atualização ou exclusão de recursos. O plano é uma forma</p><p>de validar as alterações antes de aplicá-las, permitindo que as equipes</p><p>revisem e entendam o impacto das mudanças antes de executá-las.</p><p>O Terraform também suporta a criação de variáveis e arquivos de</p><p>configuração separados, permitindo que as configurações sejam</p><p>parametrizadas e adaptadas para diferentes ambientes. Isso facilita a</p><p>implantação da mesma infraestrutura em diferentes ambientes, como</p><p>desenvolvimento, teste e produção, com variações mínimas no código</p><p>(Provost; Fawcett, 2016).</p><p>https://www.terraform.io/</p><p>60</p><p>Em termos de segurança, o Terraform suporta a autenticação com</p><p>provedores de nuvem, como chaves de acesso e tokens de autenticação,</p><p>garantindo a proteção adequada dos recursos provisionados. Além</p><p>disso, o Terraform também permite a integração com sistemas de</p><p>gerenciamento de segredos, como o HashiCorp Vault, para armazenar</p><p>informações sensíveis, como senhas e chaves de API.</p><p>Por fim, podemos relacionar que o Terraform é uma ferramenta</p><p>altamente técnica e poderosa para o gerenciamento de infraestrutura.</p><p>Sua abordagem baseada em código, suporte a múltiplos provedores</p><p>de nuvem, arquitetura modular e gerenciamento de estado garante a</p><p>criação e configuração consistente de recursos de TI. Com o Terraform,</p><p>as equipes de TI podem provisionar e gerenciar infraestruturas</p><p>complexas de forma eficiente, escalável e segura.</p><p>3. Implementação de IA em nuvens públicas</p><p>A implementação de Inteligência Artificial (IA) em nuvens públicas,</p><p>como AWS (Amazon Web Services) e Azure (Microsoft Azure), tem</p><p>revolucionado a maneira como as organizações desenvolvem e</p><p>implantam soluções baseadas em IA.</p><p>De acordo com Norvig e Russell (2014), as plataformas de nuvem</p><p>oferecem recursos poderosos e escaláveis para treinar, implantar e</p><p>executar modelos de IA permitindo que as empresas aproveitem ao</p><p>máximo os benefícios dessa tecnologia em seus projetos. Um exemplo</p><p>prático de implementação de IA em nuvens públicas é o treinamento</p><p>de modelos de aprendizado de máquina. Suponha uma empresa de</p><p>varejo que deseja criar um modelo de IA capaz de prever a demanda de</p><p>produtos. Utilizando a AWS, por exemplo, a empresa pode aproveitar</p><p>serviços como o Amazon SageMaker, que oferece um ambiente de</p><p>desenvolvimento completo para treinar e implantar modelos de</p><p>61</p><p>aprendizado de máquina. Segue a reprodução do site oficial do Amazon</p><p>SageMaker.</p><p>Figura 3 – Reprodução do site oficial do Amazon SageMaker</p><p>Fonte: https://aws.amazon.com/pt/sagemaker/. Acesso em: 05 out. 2023.</p><p>De acordo com Amaral (2016), a empresa pode utilizar conjuntos de</p><p>dados históricos de vendas e informações relevantes, como datas</p><p>sazonais, promoções e eventos, para treinar um modelo de IA que</p><p>aprenda os padrões e as tendências da demanda. Com o SageMaker,</p><p>é possível configurar e executar o treinamento do modelo em uma</p><p>instância EC2 otimizada para aprendizado de máquina, aproveitando a</p><p>capacidade de processamento e armazenamento da nuvem.</p><p>Uma vez que o modelo esteja treinado, a empresa pode implantá-lo em</p><p>produção para fazer previsões em tempo real. A nuvem pública oferece</p><p>recursos escaláveis para implantar o modelo em um serviço gerenciado,</p><p>como o Amazon Elastic Inference, que permite acelerar a inferência do</p><p>modelo e reduzir custos. Dessa forma, a empresa pode disponibilizar</p><p>uma API acessível para outros sistemas consultarem e obterem</p><p>previsões de demanda em tempo real.</p><p>https://aws.amazon.com/pt/sagemaker/</p><p>62</p><p>Outra aplicação da IA em nuvens públicas é o processamento de</p><p>linguagem natural (NLP). Suponha que uma empresa de atendimento ao</p><p>cliente deseja melhorar sua eficiência e satisfação do cliente por meio</p><p>de chatbots. Utilizando a Azure, por exemplo, a empresa pode utilizar</p><p>o Azure Cognitive Services, que oferece uma variedade de APIs para</p><p>processamento de linguagem natural.</p><p>A empresa pode treinar um modelo de IA com dados históricos de</p><p>interações de atendimento ao cliente e utilizá-lo para criar um chatbot</p><p>inteligente. O Azure Cognitive Services fornece APIs como Text Analytics,</p><p>que permite analisar o sentimento e extrair informações-chave dos</p><p>textos, e Language Understanding (LUIS),</p><p>que permite entender a intenção</p><p>do usuário e responder de forma adequada. Essas APIs podem ser</p><p>integradas ao chatbot da empresa, fornecendo respostas automatizadas</p><p>e precisas aos clientes.</p><p>Além disso, as nuvens públicas oferecem recursos para processar</p><p>grandes volumes de dados e executar tarefas computacionalmente</p><p>intensivas, como visão computacional. Por exemplo, suponha que uma</p><p>empresa de varejo deseja implementar um sistema de reconhecimento</p><p>de imagem para detectar produtos defeituosos em uma linha de</p><p>produção. Utilizando a AWS, a empresa pode aproveitar serviços como</p><p>o Amazon Rekognition, que oferece recursos avançados de visão</p><p>computacional.</p><p>A empresa pode treinar um modelo de IA com imagens de produtos</p><p>bons e defeituosos e implantá-lo no Amazon Rekognition. O serviço</p><p>pode ser integrado ao sistema de câmeras da linha de produção,</p><p>analisando em tempo real as imagens capturadas e identificando</p><p>produtos defeituosos com precisão. Isso permite que a empresa detecte</p><p>e corrija problemas de qualidade rapidamente, evitando desperdícios e</p><p>garantindo a satisfação do cliente.</p><p>63</p><p>4. Utilização de Databricks para</p><p>processamento de dados com IA</p><p>A utilização do Databricks para o processamento de dados com</p><p>inteligência artificial (IA) tem se mostrado uma solução poderosa e</p><p>eficiente para empresas que buscam extrair insights valiosos e tomar</p><p>decisões baseadas em dados. O Databricks é uma plataforma de análise</p><p>e processamento de dados baseada em nuvem, que combina Apache</p><p>Spark com recursos adicionais para simplificar e otimizar o fluxo de</p><p>trabalho de IA (Amaral, 2016).</p><p>Um exemplo prático da utilização do Databricks é o processamento de</p><p>grandes volumes de dados para treinamento de modelos de IA. Suponha</p><p>que uma empresa de comércio eletrônico deseja criar um modelo de</p><p>recomendação personalizada para seus clientes. Com o Databricks,</p><p>a empresa pode aproveitar a escalabilidade do Apache Spark para</p><p>processar e analisar grandes conjuntos de dados, como histórico de</p><p>compras, dados demográficos e informações de navegação do site.</p><p>Utilizando a linguagem de programação Python e bibliotecas como o</p><p>PySpark, a empresa pode implementar algoritmos de aprendizado de</p><p>máquina no Databricks para treinar o modelo de recomendação. O</p><p>Databricks oferece um ambiente colaborativo e interativo, permitindo</p><p>que cientistas de dados e engenheiros colaborem e iterem rapidamente</p><p>no desenvolvimento do modelo. Além disso, a plataforma fornece</p><p>recursos para visualização de dados e monitoramento de métricas de</p><p>desempenho durante o treinamento.</p><p>Uma vez que o modelo de recomendação esteja treinado, o Databricks</p><p>facilita a implantação e o uso em produção. A plataforma permite que</p><p>a empresa crie pipelines de processamento de dados automatizados,</p><p>64</p><p>que coletam e pré-processam os dados em tempo real ou em</p><p>intervalos definidos. Isso garante que o modelo de recomendação</p><p>esteja sempre atualizado com os dados mais recentes, proporcionando</p><p>recomendações precisas e relevantes aos clientes.</p><p>Além disso, o Databricks oferece facilidades para o gerenciamento de</p><p>modelos em produção. A empresa pode implantar o modelo treinado</p><p>como um serviço web usando bibliotecas como o MLflow, que permite</p><p>rastrear, gerenciar e versionar modelos. Isso facilita a manutenção</p><p>e atualização contínua do modelo, garantindo que ele se adapte</p><p>às mudanças nos dados e continue a fornecer recomendações de</p><p>qualidade (Amaral, 2016). Outra vantagem do Databricks é a integração</p><p>com outras ferramentas e serviços populares no ecossistema de IA.</p><p>Por exemplo, a plataforma pode ser integrada com o Azure Machine</p><p>Learning permitindo que a empresa tire proveito de recursos adicionais,</p><p>como implantação automatizada em escala, monitoramento de</p><p>desempenho e a utilização de recursos de computação especializados,</p><p>como GPUs.</p><p>A partir desse contexto, podemos relacionar que o Databricks oferece</p><p>suporte a bibliotecas e frameworks populares de IA, como TensorFlow</p><p>e PyTorch, permitindo que a empresa utilize essas ferramentas para</p><p>desenvolver modelos de IA avançados. Isso proporciona flexibilidade</p><p>e opções para os cientistas de dados escolherem as ferramentas mais</p><p>adequadas para suas necessidades e preferências.</p><p>Segundo Amaral (2016), a utilização do Databricks para processamento</p><p>de dados com IA oferece uma solução completa e poderosa para</p><p>empresas que desejam extrair insights valiosos e tomar decisões</p><p>baseadas em dados. Com recursos escaláveis do Apache Spark, um</p><p>ambiente colaborativo e integrado, facilidades para o treinamento e</p><p>implantação de modelos, além da integração com outras ferramentas</p><p>populares de IA, o Databricks se destaca como uma plataforma de ponta</p><p>65</p><p>para impulsionar a transformação digital e a adoção de IA em diferentes</p><p>setores da indústria.</p><p>Ao explorar a temática da Infraestrutura como Código com IA, pudemos</p><p>compreender a importância e os benefícios dessa abordagem. Por</p><p>meio da utilização de ferramentas como o Terraform, torna-se possível</p><p>gerenciar a infraestrutura de forma automatizada e escalável. Além</p><p>disso, a implementação de IA em nuvens públicas, como AWS e Azure,</p><p>abre um leque de possibilidades para aprimorar os processos de</p><p>negócio, melhorar a segurança e otimizar o desempenho dos sistemas.</p><p>Por fim, a utilização do Databricks para processamento de dados com</p><p>IA permite explorar o potencial das informações disponíveis, obtendo</p><p>insights valiosos e impulsionando a tomada de decisões estratégicas.</p><p>Com a combinação desses tópicos de estudo, as empresas podem</p><p>alcançar uma infraestrutura ágil, adaptável e potencializada pela</p><p>inteligência artificial. A Infraestrutura como Código com IA se apresenta</p><p>como uma abordagem inovadora e promissora, capaz de impulsionar a</p><p>transformação digital e o sucesso das organizações no cenário atual.</p><p>Referências</p><p>AMARAL, Fernando. Introdução à Ciência de Dados: mineração de dados e big</p><p>data. Rio de Janeiro: Alta Books, 2016.</p><p>COPPIN, Ben. Inteligência artificial. Rio de Janeiro: Grupo Gen-LTC, 2015.</p><p>NORVIG, Peter; RUSSELL, Stuart. Inteligência Artificial. 3. ed. Rio de Janeiro:</p><p>Elsevier Brasil, 2014</p><p>PROVOST, Foster; FAWCETT, Tom. Data Science para negócios. Trad. Marina</p><p>Boscatto. Rio de Janeiro: Alta Books, 2016.</p><p>66</p><p>Sumário</p><p>Apresentação da disciplina</p><p>Objetivos</p><p>Objetivos</p><p>Objetivos</p><p>Objetivos</p><p>Objetivos</p><p>de dados, a probabilidade</p><p>é uma ferramenta essencial para criar amostras representativas.</p><p>Uma técnica comumente usada é a amostragem aleatória, em que</p><p>cada elemento da população tem a mesma probabilidade de ser</p><p>selecionado para a amostra. Isso garante que a amostra seja imparcial</p><p>e representativa do conjunto de dados original. A probabilidade é</p><p>fundamental para determinar o tamanho da amostra e avaliar a precisão</p><p>das estimativas obtidas.</p><p>Segundo Provost e Fawcett (2016), em campos como a inteligência</p><p>artificial generativa, a probabilidade também desempenha um papel</p><p>crucial. Por exemplo, nas redes generativas adversariais (GANs), a</p><p>geração de dados é baseada em modelos probabilísticos. O gerador</p><p>recebe uma entrada aleatória de baixa dimensão, geralmente chamada</p><p>de vetor latente, e usa uma função probabilística para mapeá-la em</p><p>uma amostra sintética. A qualidade da amostra gerada depende da</p><p>capacidade do gerador de aprender a distribuição de probabilidade dos</p><p>dados de treinamento. Essa distribuição é estimada por meio de um</p><p>processo de aprendizado adversarial, no qual o gerador busca enganar</p><p>um discriminador treinado para distinguir entre dados reais e gerados,</p><p>e o discriminador busca acuradamente classificar as amostras. Esse</p><p>11</p><p>processo iterativo resulta em um gerador capaz de produzir amostras</p><p>cada vez mais realistas, com base na distribuição de probabilidade</p><p>aprendida.</p><p>Além disso, a probabilidade condicional é um conceito-chave na geração</p><p>de dados, especialmente em modelos de linguagem. Nesses modelos,</p><p>a probabilidade de uma palavra depende do contexto anterior. Por</p><p>exemplo, ao gerar uma sequência de texto, um modelo de linguagem</p><p>calcula a probabilidade de cada palavra seguinte com base nas palavras</p><p>anteriores na sequência. Isso permite a geração de texto coerente e</p><p>fluente, seguindo as características e estruturas presentes nos dados de</p><p>treinamento (Norvig; Russell, 2014).</p><p>A geração probabilística de dados também é comumente usada em</p><p>simulações. Por exemplo, ao modelar o comportamento de sistemas</p><p>complexos, como o tráfego urbano ou o clima, é necessário incorporar</p><p>a incerteza e a aleatoriedade nos dados gerados. Técnicas como a</p><p>simulação de Monte Carlo permitem gerar múltiplas realizações de um</p><p>evento com base em distribuições de probabilidade, fornecendo uma</p><p>visão abrangente dos possíveis resultados. A partir desse contexto,</p><p>observa-se a seguir o esquema explicativo que apresenta algumas das</p><p>abordagens de geração de dados probabilísticos.</p><p>12</p><p>Figura 2 – Esquema explicativo com algumas abordagens</p><p>de geração de dados probabilísticos</p><p>Fonte: elaborada pelo autor.</p><p>De acordo com Norvig e Russell (2014), ao utilizar essas abordagens, a</p><p>geração de dados probabilística permite explorar a incerteza, modelar</p><p>distribuições de probabilidade e criar amostras que representem</p><p>adequadamente a realidade. Esses métodos são fundamentais em</p><p>diversas áreas, como pesquisa de mercado, inteligência artificial</p><p>generativa, análise estatística e simulações, fornecendo informações</p><p>valiosas para tomada de decisões informadas.</p><p>Por fim, podemos relacionar que a probabilidade desempenha um papel</p><p>fundamental na geração de dados tanto em amostragem quanto em</p><p>modelos generativos. Por meio de técnicas estatísticas e probabilísticas,</p><p>é possível criar amostras representativas, gerar dados sintéticos realistas</p><p>e explorar a incerteza inerente aos eventos. Compreender e aplicar</p><p>conceitos técnicos de probabilidade é essencial para obter resultados</p><p>confiáveis e tomar decisões informadas com base nos dados gerados.</p><p>13</p><p>3. Modelos generativos probabilísticos:</p><p>fundamentos e aplicações</p><p>De acordo com Norvig e Russell (2014), os modelos generativos</p><p>probabilísticos são uma classe de modelos que utilizam conceitos da</p><p>teoria das probabilidades para gerar dados que se assemelham a um</p><p>conjunto de exemplos de treinamento. Esses modelos têm se mostrado</p><p>extremamente úteis em uma variedade de aplicações, desde geração de</p><p>imagens e música até tradução automática e reconhecimento de fala.</p><p>Norvig e Russell (2014) afirmam, ainda, que os modelos generativos</p><p>probabilísticos são baseados na ideia de modelar a distribuição de</p><p>probabilidade conjunta dos dados observados e variáveis latentes</p><p>(não observadas). Essas variáveis latentes capturam as características</p><p>subjacentes dos dados e são fundamentais para a geração de</p><p>novos exemplos. Existem várias abordagens para construir modelos</p><p>generativos probabilísticos, como redes Bayesianas, misturas de</p><p>distribuições e modelos de Markov ocultos. Um exemplo comum de</p><p>modelo generativo probabilístico é o Autoencoder Variacional (VAE).</p><p>Nesse modelo, a distribuição de probabilidade latente é aprendida</p><p>de forma a permitir a geração de novos exemplos a partir de pontos</p><p>amostrados aleatoriamente nessa distribuição. O VAE combina um</p><p>codificador, que mapeia os dados observados para a distribuição latente,</p><p>e um decodificador, que mapeia pontos na distribuição latente de volta</p><p>para o espaço de dados. Ao treinar o modelo, é possível aprender a</p><p>distribuição latente que representa a variabilidade dos dados e, dessa</p><p>forma, gerar novos exemplos que se assemelham ao conjunto de</p><p>treinamento. A partir desse contexto, segue o esquema explicativo que</p><p>apresenta algumas aplicações dos Modelos Generativos Probabilísticos:</p><p>14</p><p>Figura 3 – Esquema explicativo com algumas aplicações</p><p>dos Modelos Generativos Probabilísticos</p><p>Fonte: elaborada pelo autor.</p><p>De acordo com Amaral (2016), os modelos generativos probabilísticos</p><p>são uma poderosa ferramenta para a geração de dados e têm</p><p>impulsionado avanços significativos em diversas áreas. Com base nos</p><p>fundamentos da modelagem probabilística, esses modelos são capazes</p><p>de aprender a distribuição de probabilidade dos dados e gerar exemplos</p><p>sintéticos que se assemelham aos dados reais. A geração de imagens</p><p>realistas, tradução automática e reconhecimento de fala são apenas</p><p>algumas das aplicações em que os modelos generativos probabilísticos</p><p>têm se destacado, graças à sua capacidade de aprender e representar</p><p>a complexidade dos dados. Além dos exemplos mencionados, é</p><p>importante ressaltar que existem outras abordagens e modelos</p><p>generativos probabilísticos, como Redes Generativas Adversariais</p><p>Variacionais (VAE-GANs) e Redes Neurais Autoregressivas.</p><p>15</p><p>A partir desse contexto, Amaral (2016) afirma que os VAE-GANs (Redes</p><p>Generativas Adversariais Variacionais) são modelos avançados que</p><p>combinam as vantagens do VAE (Variational Autoencoder) e do GAN</p><p>(Generative Adversarial Network), resultando em uma abordagem</p><p>mais estável e controlável para a geração de dados sintéticos. Esses</p><p>modelos utilizam um codificador, que mapeia os dados observados</p><p>para uma distribuição latente, e um decodificador, que gera os dados</p><p>reconstruídos a partir dessa distribuição latente. O VAE, por sua vez, é</p><p>responsável por aprender uma representação compacta dos dados e</p><p>permite a geração de novos exemplos a partir dessa representação.</p><p>No entanto, a abordagem adversarial é adicionada aos VAEs para</p><p>melhorar a qualidade da geração. Isso é feito por meio da inclusão de</p><p>um discriminador, que é treinado para distinguir entre as amostras</p><p>geradas pelo decodificador e as amostras reais do conjunto de</p><p>treinamento. O objetivo é que o gerador, composto pelo codificador e</p><p>decodificador, consiga enganar o discriminador, gerando exemplos que</p><p>sejam indistinguíveis dos dados reais. Essa competição entre o gerador</p><p>e o discriminador resulta em melhorias progressivas na qualidade dos</p><p>exemplos gerados, pois o gerador busca aprimorar sua capacidade de</p><p>enganar o discriminador e gerar dados mais realistas. Essa abordagem</p><p>adversarial no contexto dos VAEs permite um controle mais refinado</p><p>sobre a diversidade e qualidade das amostras geradas (Knaflic, 2019).</p><p>Por outro lado, as Redes Neurais Autoregressivas são outro tipo de</p><p>modelo generativo probabilístico. Esses modelos, como os modelos</p><p>de linguagem autoregressivos, geram sequências de</p><p>dados uma etapa</p><p>de cada vez, levando em consideração as informações contextuais</p><p>anteriores. Eles são treinados para prever a próxima parte da sequência</p><p>condicionada às partes anteriores, gerando sequências de dados</p><p>altamente coerentes e realistas. Ao contrário dos VAEs, que geram as</p><p>amostras completas de uma vez, as Redes Neurais Autoregressivas</p><p>geram sequências passo a passo, condicionadas ao contexto anterior.</p><p>Essa abordagem permite que os modelos autoregressivos capturem as</p><p>16</p><p>dependências entre os elementos sequenciais e gerem exemplos que</p><p>seguem uma estrutura coerente e realista.</p><p>Além das aplicações mencionadas, os modelos generativos</p><p>probabilísticos também são utilizados em áreas como simulação de</p><p>dados, preenchimento de lacunas em dados faltantes, reconstrução e</p><p>super-resolução de imagens, entre outras. Sua flexibilidade e capacidade</p><p>de capturar a incerteza inerente aos dados os tornam uma ferramenta</p><p>valiosa em várias tarefas de análise de dados.</p><p>Em conclusão, podemos apontar que os modelos generativos</p><p>probabilísticos são fundamentados em princípios teóricos sólidos</p><p>da teoria das probabilidades e têm uma ampla gama de aplicações</p><p>práticas. Com a capacidade de aprender e modelar a distribuição de</p><p>probabilidade dos dados, esses modelos são capazes de gerar exemplos</p><p>sintéticos que se assemelham aos dados reais. A constante inovação</p><p>nesse campo continua a impulsionar avanços em áreas como geração</p><p>de imagens, processamento de linguagem natural e reconhecimento de</p><p>fala, contribuindo para o desenvolvimento de soluções mais sofisticadas</p><p>e eficazes em diversas indústrias.</p><p>Referências</p><p>AMARAL, Fernando. Introdução à Ciência de Dados: mineração de dados e big</p><p>data. Rio de Janeiro: Alta Books, 2016.</p><p>COPPIN, Ben. Inteligência artificial. Rio de Janeiro: Grupo Gen-LTC, 2015.</p><p>GABRIEL, Martha. Você, eu e os robôs: pequeno manual do mundo digital. São</p><p>Paulo: Atlas, 2018.</p><p>KNAFLIC, Cole Nussbaumer. Storytelling com Dados: Um guia sobre visualização</p><p>de dados para profissionais de negócios. Rio de Janeiro: Alta Books, 2019.</p><p>NORVIG, Peter; RUSSELL, Stuart. Inteligência Artificial. 3. ed. Rio de Janeiro:</p><p>Elsevier, 2014.</p><p>PROVOST, Foster; FAWCETT, Tom. Data Science para negócios. Trad. Marina</p><p>Boscatto. Rio de Janeiro: Alta Books, 2016.</p><p>17</p><p>Modelos Avançados de</p><p>IA Generativa</p><p>Autoria: Marcelo Henrique dos Santos</p><p>Leitura crítica: Henrique Salustiano Silva</p><p>Objetivos</p><p>• Discutir sobre os princípios do Large Language Model</p><p>(LLM).</p><p>• Discutir sobre os princípios das Redes Adversárias</p><p>Generativas (GAN).</p><p>• Compreender os aspectos centrais dos modelos</p><p>baseados em Transformador (Transformer).</p><p>• Visualizar os princípios dos modelos de Autoencoder</p><p>Variacional (VAEs).</p><p>18</p><p>1. Large Language Model (LLM)</p><p>Os Large Language Models (LLMs), ou Modelos de Linguagem de</p><p>Grande Escala, são uma classe avançada de modelos de inteligência</p><p>artificial baseados em arquiteturas de rede neural profundas, como</p><p>o Transformer. Esses modelos são treinados em grandes quantidades</p><p>de dados textuais, utilizando técnicas avançadas de aprendizado de</p><p>máquina e processamento de linguagem natural.</p><p>De acordo com Coppin (2015), para treinar um LLM, uma enorme</p><p>quantidade de texto é coletada de diversas fontes, como livros, artigos</p><p>científicos, sites e até mesmo conteúdo da internet. Esse texto é então</p><p>processado e dividido em sequências de palavras ou subpalavras, que</p><p>serve como entrada para o modelo. Durante o treinamento, o LLM</p><p>aprende a prever a próxima palavra ou sequência de palavras com</p><p>base no contexto fornecido. Uma das características-chave dos LLMs</p><p>é a atenção mecanismo, uma técnica que permite ao modelo capturar</p><p>relacionamentos complexos entre palavras e frases em um texto. Essa</p><p>atenção é fundamental para o desempenho dos LLMs, pois permite que</p><p>eles ponderem a importância de diferentes partes do texto ao gerar suas</p><p>previsões. Com essa capacidade, eles conseguem entender contextos</p><p>complicados e produzir textos coerentes e relevantes.</p><p>Os LLMs são conhecidos por sua habilidade de gerar textos continuando</p><p>uma sequência fornecida. Por exemplo, se fornecermos um início</p><p>de frase como “Na cidade, as pessoas caminham pelas ruas...”, um</p><p>LLM treinado pode completar a frase de maneira coerente, como “Na</p><p>cidade, as pessoas caminham pelas ruas movimentadas, aproveitando a</p><p>agitação e a variedade de lojas e restaurantes ao redor”. Essa capacidade</p><p>é resultado do treinamento do modelo em uma enorme quantidade de</p><p>texto, o que lhe permite capturar padrões e estilos de escrita presentes</p><p>na língua.</p><p>19</p><p>Segundo Amaral (2016), além de gerar texto, os LLMs têm sido aplicados</p><p>em várias tarefas de processamento de linguagem natural. Um exemplo</p><p>é a tradução automática. Os LLMs podem ser treinados em pares de</p><p>texto em diferentes idiomas, aprendendo a relação entre palavras e</p><p>frases em línguas distintas. Com base nesse conhecimento, eles podem</p><p>gerar traduções de alta qualidade. Essa abordagem é conhecida como</p><p>tradução automática neural e tem se mostrado muito eficaz.</p><p>Os LLMs também têm sido utilizados em tarefas de geração de texto</p><p>criativo, como a criação de poesia, música e roteiros de filmes. Esses</p><p>modelos conseguem aprender a estrutura e o estilo de diferentes tipos</p><p>de texto, permitindo a geração de conteúdo original que se assemelha</p><p>a obras humanas. Essa capacidade abre possibilidades para a criação</p><p>assistida por IA e a geração de ideias criativas em diversas áreas. No</p><p>entanto, os LLMs enfrentam desafios e preocupações. Um deles é o</p><p>viés do modelo, que ocorre quando o LLM reproduz estereótipos ou</p><p>preconceitos presentes nos dados de treinamento. Esse viés pode</p><p>levar a resultados indesejáveis e reforçar desigualdades existentes.</p><p>Pesquisadores e desenvolvedores estão trabalhando ativamente para</p><p>abordar esse problema, melhorando os métodos de treinamento e</p><p>implementando técnicas de mitigação de viés (Coppin, 2015).</p><p>Além disso, os LLMs requerem uma grande quantidade de recursos</p><p>computacionais para treinamento e inferência, o que limita seu uso em</p><p>dispositivos com recursos limitados. No entanto, esforços estão sendo</p><p>feitos para otimizar esses modelos e torná-los mais eficientes em termos</p><p>de consumo de recursos, possibilitando sua aplicação em uma variedade</p><p>maior de dispositivos.</p><p>2. Redes Adversárias Generativas (GAN)</p><p>As Redes Adversárias Generativas (GANs) são modelos de aprendizado</p><p>de máquina que se destacam na geração de conteúdo artificial de alta</p><p>20</p><p>qualidade, como imagens, áudio e texto. Essas redes consistem em</p><p>duas partes principais: o gerador e o discriminador, que trabalham em</p><p>conjunto por meio de um processo competitivo.</p><p>De acordo com Norvig e Russell (2014), o gerador é uma rede neural que</p><p>recebe como entrada um vetor de ruído aleatório e produz amostras</p><p>sintéticas. Essas amostras são passadas para o discriminador, que</p><p>é outra rede neural treinada para distinguir entre amostras reais e</p><p>geradas pelo gerador. O objetivo do gerador é enganar o discriminador,</p><p>produzindo amostras que são indistinguíveis das amostras reais. Por</p><p>outro lado, o discriminador busca ser hábil em identificar a diferença</p><p>entre amostras reais e geradas.</p><p>Durante o treinamento das GANs, o gerador e o discriminador são</p><p>aprimorados por meio de um processo iterativo. A cada iteração, o</p><p>gerador gera novas amostras e o discriminador as avalia. Com base</p><p>no feedback fornecido pelo discriminador, o gerador ajusta seus</p><p>parâmetros para aprimorar a qualidade das amostras geradas. Por</p><p>sua vez, o discriminador é atualizado para se tornar mais preciso em</p><p>distinguir entre amostras reais e sintéticas.</p><p>A partir desse contexto, segundo Coppin (2015), uma técnica</p><p>fundamental das GANs é a função de perda adversarial. Essa função</p><p>é usada para guiar o treinamento do gerador e do discriminador. O</p><p>gerador busca minimizar a função de perda adversarial, enquanto o</p><p>discriminador busca maximizá-la. Essa competição entre as duas partes</p><p>é o que leva ao progresso contínuo e ao aprimoramento das habilidades</p><p>de geração e discriminação das GANs.</p><p>As GANs têm sido aplicadas em diversas áreas com resultados</p><p>impressionantes. Na geração de imagens, por exemplo, as GANs podem</p><p>criar imagens realistas de rostos, paisagens e objetos. Essas redes têm</p><p>sido utilizadas em campos como design gráfico, jogos de vídeo e até</p><p>mesmo na simulação de dados para treinamento de modelos de visão</p><p>21</p><p>computacional. Além disso, as GANs podem ser usadas para sintetizar</p><p>novas amostras com base em um conjunto existente, permitindo a</p><p>criação de variações e novas perspectivas.</p><p>No domínio do texto, as GANs podem gerar parágrafos, diálogos e</p><p>até histórias completas. Essas redes podem aprender a imitar o estilo</p><p>e o conteúdo de um conjunto de dados de treinamento específico,</p><p>permitindo a geração automática de texto coerente e relevante. Essa</p><p>capacidade tem aplicações em assistentes virtuais, chatbots e até</p><p>mesmo na criação de conteúdo escrito personalizado. Além disso, as</p><p>GANs têm sido aplicadas em tarefas de processamento de áudio, como</p><p>síntese de voz e criação de música. Elas podem aprender a gerar sons</p><p>que se assemelham a vozes humanas ou a reproduzir estilos musicais</p><p>específicos. Essa abordagem tem implicações interessantes para a</p><p>indústria musical, produção de efeitos sonoros e na criação de trilhas</p><p>sonoras para filmes e jogos. A seguir há uma representação de um</p><p>sistema que realiza a síntese de voz e criação de música.</p><p>Figura 1 – Representação de um sistema que realiza que realiza a</p><p>síntese de voz e criação de música</p><p>Fonte: Shutterstock.com.</p><p>22</p><p>Apesar dos avanços notáveis, as GANs enfrentam desafios técnicos</p><p>e éticos. Por exemplo, o treinamento de GANs requer grandes</p><p>quantidades de dados de alta qualidade e poder computacional</p><p>significativo. Além disso, as GANs podem ser sensíveis a perturbações</p><p>nos dados de treinamento, resultando em amostras geradas com</p><p>artefatos indesejáveis. A questão da ética também é relevante, pois as</p><p>GANs podem ser usadas para criar deepfakes e conteúdo enganoso.</p><p>Por fim, de acordo com Coppin (2015), as Redes Adversárias Generativas</p><p>são uma poderosa abordagem no campo do aprendizado de máquina</p><p>para a geração de conteúdo artificial de alta qualidade. Com sua</p><p>capacidade de criar amostras realistas em diferentes domínios, como</p><p>imagens, texto e áudio, as GANs têm um potencial significativo para</p><p>inovação em várias indústrias. Embora enfrentem desafios técnicos e</p><p>éticos, as GANs continuam a evoluir e a proporcionar soluções criativas e</p><p>impactantes no campo da geração de conteúdo artificial.</p><p>3. Modelos baseados em Transformador</p><p>(Transformer)</p><p>Os modelos baseados em Transformador representam uma</p><p>abordagem inovadora na área de aprendizado de máquina sequencial,</p><p>proporcionando avanços significativos em tarefas como tradução</p><p>automática, geração de texto e processamento de linguagem natural.</p><p>Segundo Norvig e Russell (2014), os modelos baseados em</p><p>Transformador são arquiteturas de rede neural projetadas</p><p>especificamente para lidar com sequências de dados, como sentenças,</p><p>documentos ou séries temporais. Eles foram introduzidos como uma</p><p>alternativa aos modelos recorrentes tradicionais, que sofriam com a</p><p>dificuldade de capturar dependências de longo alcance nas sequências.</p><p>A inovação essencial trazida pelos modelos baseados em Transformador</p><p>23</p><p>é o mecanismo de atenção, que permite capturar informações</p><p>relevantes em diferentes partes da sequência.</p><p>O mecanismo de atenção é fundamental para o funcionamento dos</p><p>modelos baseados em Transformador. Ele permite que o modelo</p><p>atribua pesos diferentes a cada elemento da sequência de entrada,</p><p>destacando assim as partes mais importantes para a tarefa em questão.</p><p>Essa capacidade de atenção se traduz em uma melhor compreensão</p><p>do contexto global da sequência, permitindo que o modelo capture</p><p>dependências de longo prazo e faça previsões mais precisas (Coppin,</p><p>2015).</p><p>Ao contrário dos modelos recorrentes, que exigem a passagem</p><p>de informações de um estado oculto para o próximo, os modelos</p><p>baseados em Transformador utilizam uma abordagem paralela. Em</p><p>vez de processar sequencialmente os elementos da sequência, eles</p><p>os processam independentemente e em paralelo. Isso permite que</p><p>o modelo lide de forma mais eficiente com sequências muito longas,</p><p>reduzindo a dependência de cálculos sequenciais e acelerando o</p><p>treinamento e a inferência.</p><p>De acordo com Norvig e Russell (2014), um componente chave dos</p><p>modelos baseados em Transformador é a chamada codificação</p><p>posicional. Como os modelos não têm conexões recorrentes que</p><p>codificam implicitamente a posição dos elementos na sequência, é</p><p>necessário fornecer informações explícitas sobre a posição relativa de</p><p>cada elemento. Isso é feito adicionando vetores de posição aos vetores</p><p>de entrada do modelo antes de cada camada. Esses vetores de posição</p><p>fornecem informações sobre a ordem e a localização dos elementos na</p><p>sequência, permitindo que o modelo entenda a estrutura temporal. Um</p><p>exemplo notável de aplicação dos modelos baseados em Transformador</p><p>é a tradução automática. Com o uso de grandes conjuntos de dados</p><p>multilíngues, é possível treinar um modelo de Transformador capaz de</p><p>traduzir frases de um idioma para outro com qualidade surpreendente.</p><p>24</p><p>O modelo é treinado para aprender a relação entre as palavras em</p><p>diferentes idiomas e, em seguida, pode gerar traduções coerentes e</p><p>precisas com base no contexto global da frase de origem. A seguir há um</p><p>exemplo de um sistema que realiza a tradução automática.</p><p>Figura 2 – Representação de um sistema que realiza</p><p>a tradução automática</p><p>Fonte: Shutterstock.com.</p><p>De acordo com Norvig e Russell (2014), a geração de texto é outra</p><p>aplicação destacada dos modelos baseados em Transformador. Esses</p><p>modelos podem ser treinados em grandes quantidades de dados</p><p>textuais para gerar sequências de texto coerentes e fluidas. Eles têm</p><p>sido aplicados em tarefas como resumo automático de documentos,</p><p>geração de legendas para imagens e até mesmo na criação de histórias</p><p>completas. Os modelos baseados em Transformador aprendem a</p><p>estrutura e o estilo da linguagem a partir dos dados de treinamento,</p><p>permitindo a geração de texto de alta qualidade e com coesão.</p><p>Além disso, os modelos baseados em Transformador têm sido</p><p>amplamente utilizados no processamento de linguagem natural. Eles</p><p>têm demonstrado excelentes resultados em tarefas de classificação</p><p>25</p><p>de sentimentos, question answering e análise de sentimentos em</p><p>redes sociais. Esses modelos são capazes de aprender representações</p><p>semânticas ricas das palavras e das frases, permitindo uma</p><p>compreensão mais profunda do conteúdo textual e uma execução mais</p><p>precisa dessas tarefas.</p><p>Os modelos baseados em Transformador também têm sido aplicados</p><p>com sucesso em outras áreas, como processamento de áudio e</p><p>visão computacional. Eles têm sido utilizados em tarefas como</p><p>reconhecimento de fala, síntese de voz e geração de imagens e</p><p>vídeos. Essa versatilidade demonstra o poder e a flexibilidade dos</p><p>modelos baseados em Transformador de lidar com diferentes tipos</p><p>de dados sequenciais e sua capacidade de generalização para além do</p><p>processamento de texto.</p><p>Por fim, podemos relacionar que os modelos baseados em</p><p>Transformador representam uma evolução significativa na</p><p>aprendizagem de máquina sequencial. Com seu mecanismo de atenção,</p><p>abordagem paralela e codificação posicional, eles superaram as</p><p>limitações dos modelos recorrentes e permitiram uma melhor captura</p><p>de dependências de longo alcance. Esses modelos têm sido aplicados</p><p>com sucesso em tarefas como tradução automática, geração de texto e</p><p>processamento de linguagem natural, elevando a qualidade e a precisão</p><p>dessas tarefas.</p><p>4. Modelos de Autoencoder Variacional (VAEs)</p><p>Os modelos de Autoencoder Variacional (VAEs) têm se destacado</p><p>como uma abordagem poderosa na área de aprendizado de máquina,</p><p>especialmente quando se trata de geração e representação de dados</p><p>complexos. Neste texto, exploraremos os fundamentos dos VAEs, seu</p><p>funcionamento</p><p>e exemplos práticos de suas aplicações notáveis.</p><p>26</p><p>De acordo com Norvig e Russell (2014), os VAEs são uma extensão dos</p><p>autoencoders tradicionais, que são redes neurais projetadas para</p><p>aprender uma representação compacta de dados de entrada. No</p><p>entanto, os VAEs vão além ao introduzir um componente probabilístico,</p><p>permitindo que o modelo aprenda a distribuição latente dos dados em</p><p>vez de apenas codificá-los. A principal inovação dos VAEs é a introdução</p><p>de uma camada de codificação probabilística, que mapeia os dados</p><p>de entrada para um espaço latente, no qual as variáveis latentes são</p><p>modeladas por uma distribuição de probabilidade. Isso permite que o</p><p>modelo capture a incerteza inerente aos dados e gere representações</p><p>mais ricas e flexíveis.</p><p>Durante o treinamento de um VAE, o objetivo é maximizar a</p><p>probabilidade de reconstrução dos dados de entrada e minimizar a</p><p>distância entre a distribuição latente aprendida e uma distribuição</p><p>latente de referência, geralmente uma distribuição normal. Essa</p><p>abordagem incentiva o modelo a aprender uma representação latente</p><p>que seja informativa e fiel aos dados, ao mesmo tempo em que mantém</p><p>a capacidade de gerar novas amostras.</p><p>Uma aplicação notável dos VAEs é a geração de imagens. Ao aprender</p><p>a distribuição latente dos dados de treinamento, o VAE pode gerar</p><p>novas amostras que se assemelham ao conjunto de dados original. Isso</p><p>permite a criação de imagens realistas e diversificadas, tornando os VAEs</p><p>uma ferramenta valiosa para tarefas como síntese de imagens, aumento</p><p>de dados e criação de arte generativa.</p><p>A seguir há uma representação dos princípios dos VAEs na geração de</p><p>imagens:</p><p>27</p><p>Figura 3 – Esquema explicativo sobre os princípios dos</p><p>VAEs na geração de imagens</p><p>Fonte: elaborada pelo autor.</p><p>28</p><p>A partir dessa representação visual, podemos apontar que os VAEs</p><p>são uma ferramenta valiosa na geração de imagens realistas e</p><p>diversificadas. Eles aprendem a distribuição latente dos dados de</p><p>treinamento e utilizam esse conhecimento para gerar novas amostras</p><p>que se assemelham ao conjunto de dados original. Essa capacidade</p><p>tem aplicações práticas, como síntese de imagens e aumento de dados,</p><p>além de possibilitar a criação de arte generativa. Os VAEs representam</p><p>uma abordagem poderosa para a geração de imagens e continuam</p><p>impulsionando avanços significativos nessa área (Norvig; Russell, 2014).</p><p>Segundo Amaral (2016), outra aplicação interessante é a geração de</p><p>texto. Os VAEs podem ser treinados em grandes conjuntos de dados</p><p>textuais para aprender a distribuição latente da linguagem. Com base</p><p>nessa distribuição, o modelo pode gerar sequências de texto coerentes</p><p>e fluidas, como frases e histórias. Essa capacidade tem sido explorada</p><p>em tarefas como geração automática de legendas para imagens, resumo</p><p>de documentos e criação de diálogos de chatbots mais naturais e</p><p>interativos.</p><p>Além da geração de dados, os VAEs também têm sido utilizados para a</p><p>representação de dados. Ao aprender uma representação latente dos</p><p>dados, o VAE pode reduzir a dimensionalidade dos dados de entrada,</p><p>capturando as principais características e estruturas subjacentes. Isso</p><p>é especialmente útil em tarefas de visualização de dados, redução de</p><p>dimensionalidade e análise exploratória.</p><p>Outra vantagem dos VAEs é a sua capacidade de manipulação no</p><p>espaço latente. Dado que as variáveis latentes seguem uma distribuição</p><p>probabilística, é possível realizar operações de manipulação,</p><p>como interpolação linear entre pontos latentes, para obter novas</p><p>amostras que compartilhem características de diferentes instâncias</p><p>de treinamento. Essa capacidade de manipulação latente permite a</p><p>exploração de novas possibilidades criativas e a descoberta de padrões</p><p>e relações ocultas nos dados.</p><p>29</p><p>Em resumo, podemos apontar que os modelos de Autoencoder</p><p>Variacional (VAEs) têm se mostrado uma abordagem poderosa para</p><p>geração e representação de dados complexos. A introdução de uma</p><p>camada de codificação probabilística permite que esses modelos</p><p>aprendam a distribuição latente dos dados, possibilitando a geração</p><p>de novas amostras e a manipulação das características latentes. Com</p><p>aplicações em geração de imagens, geração de texto e representação</p><p>de dados, os VAEs continuam a impulsionar a pesquisa e a inovação no</p><p>campo do aprendizado de máquina.</p><p>Referências</p><p>AMARAL, Fernando. Introdução à Ciência de Dados: mineração de dados e big</p><p>data. Rio de Janeiro: Alta Books, 2016.</p><p>COPPIN, Ben. Inteligência artificial. Rio de Janeiro: Grupo Gen-LTC, 2015.</p><p>NORVIG, Peter; RUSSELL, Stuart. Inteligência Artificial. 3. ed. Rio de Janeiro:</p><p>Elsevier Brasil, 2014.</p><p>30</p><p>Tomadas de Decisão com base em</p><p>Inteligência Artificial</p><p>Autoria: Marcelo Henrique dos Santos</p><p>Leitura crítica: Henrique Salustiano Silva</p><p>Objetivos</p><p>• Discutir sobre os princípios da Inteligência Artificial e</p><p>tomadas de decisão com base em dados.</p><p>• Visualizar os aspectos dos sistemas de</p><p>recomendação: técnicas e aplicações.</p><p>• Discutir sobre a previsão de dados e análise de</p><p>cenários.</p><p>• Discutir sobre a exploração de dados para suporte à</p><p>decisão.</p><p>31</p><p>1. Inteligência Artificial e tomadas de decisão</p><p>com base em dados</p><p>A convergência da Inteligência Artificial (IA) e a abundância de dados</p><p>têm transformado a forma como as organizações tomam decisões</p><p>estratégicas. Por meio de técnicas avançadas de análise de dados,</p><p>a IA capacita os tomadores de decisão a obter insights precisos e</p><p>orientados por dados.</p><p>De acordo com Provost e Fawcett (2016), uma das principais</p><p>técnicas empregadas na tomada de decisões baseada em dados é</p><p>a aprendizagem de máquina, um subcampo da IA que se concentra</p><p>no desenvolvimento de algoritmos capazes de aprender a partir</p><p>dos dados e tomar decisões ou fazer previsões com base nesses</p><p>aprendizados. Algoritmos como as redes neurais artificiais, as</p><p>máquinas de vetores de suporte e as florestas aleatórias são</p><p>amplamente utilizadas nesse contexto.</p><p>Esses algoritmos possibilitam a análise de grandes volumes de dados,</p><p>identificando padrões complexos e relações não triviais entre as</p><p>variáveis. Por exemplo, em um cenário de marketing, um algoritmo</p><p>de aprendizagem de máquina pode analisar o histórico de compras</p><p>de clientes, dados demográficos e hábitos de navegação na web para</p><p>identificar segmentos específicos de clientes com maior probabilidade</p><p>de responder a uma determinada campanha de marketing.</p><p>Outra técnica poderosa é a mineração de dados, que envolve a</p><p>descoberta automática de padrões, tendências e informações úteis</p><p>nos dados. Algoritmos de mineração de dados, como associação,</p><p>classificação e agrupamento, são aplicados para explorar grandes</p><p>conjuntos de dados e extrair insights relevantes. Por exemplo, um</p><p>algoritmo de associação pode revelar que clientes que compram um</p><p>determinado produto também têm maior probabilidade de comprar</p><p>32</p><p>outro produto relacionado, permitindo que uma empresa planeje</p><p>estratégias de venda cruzada eficientes.</p><p>Segundo Coppin (2015), técnicas mais avançadas, como aprendizagem</p><p>profunda, análise de sentimentos e processamento de linguagem</p><p>natural, têm sido aplicadas com sucesso na tomada de decisões</p><p>baseada em dados. A aprendizagem profunda, por exemplo, utiliza</p><p>redes neurais profundas para aprender representações complexas</p><p>dos dados e realizar tarefas sofisticadas, como reconhecimento</p><p>de imagem, tradução automática e geração de texto. A análise de</p><p>sentimentos permite extrair informações subjetivas dos dados, como</p><p>opiniões e emoções dos usuários, fornecendo insights valiosos para</p><p>a tomada de decisões em áreas como marketing e atendimento</p><p>ao cliente. Já o processamento de linguagem natural capacita as</p><p>máquinas a entender, interpretar e gerar texto de forma inteligente,</p><p>o que é especialmente útil em aplicações que envolvem análise de</p><p>documentos, chatbots e assistentes virtuais.</p><p>É importante ressaltar que a tomada de decisões baseada em dados</p><p>com IA não é um processo isolado. Envolve várias etapas, incluindo</p><p>coleta e preparação dos dados,</p><p>treinamento e validação dos modelos,</p><p>interpretação dos resultados e implementação das decisões. Cada</p><p>etapa requer conhecimentos técnicos especializados e boas práticas</p><p>para garantir a confiabilidade e a eficácia dos resultados. Ademais,</p><p>o sucesso da tomada de decisões baseada em dados com IA</p><p>depende da qualidade dos dados utilizados. Dados de alta qualidade,</p><p>representativos e livres de viés são essenciais para obter resultados</p><p>confiáveis e evitar decisões tendenciosas ou equivocadas. Portanto,</p><p>é crucial investir em processos adequados de coleta, limpeza e</p><p>validação dos dados antes de aplicar algoritmos de IA na tomada de</p><p>decisões.</p><p>33</p><p>2. Sistemas de recomendação: técnicas e</p><p>aplicações.</p><p>Os sistemas de recomendação desempenham um papel crucial na era</p><p>da informação, ajudando a filtrar e sugerir informações relevantes de</p><p>acordo com as preferências individuais dos usuários.</p><p>De acordo com Coppin (2015), uma das técnicas mais amplamente</p><p>utilizadas nos sistemas de recomendação é a filtragem colaborativa.</p><p>Essa abordagem utiliza dados sobre as preferências e comportamentos</p><p>de um grupo de usuários para fazer recomendações para outros</p><p>indivíduos com gostos semelhantes. Existem duas principais abordagens</p><p>dentro da filtragem colaborativa: filtragem baseada em usuário e</p><p>filtragem baseada em item. Na filtragem baseada em usuário, o sistema</p><p>identifica usuários com preferências semelhantes e sugere itens que</p><p>esses usuários tenham gostado. Por exemplo, se um usuário A avaliou</p><p>positivamente diversos filmes de ação e outro usuário B também</p><p>classificou esses mesmos filmes de forma positiva, o sistema pode</p><p>recomendar filmes de ação para o usuário B com base no histórico de</p><p>avaliações do usuário A.</p><p>Já na filtragem baseada em item, o sistema analisa as características</p><p>dos itens e sugere itens semelhantes aos que o usuário já demonstrou</p><p>interesse ou avaliou positivamente. Por exemplo, se um usuário</p><p>comprou um livro de ficção científica, o sistema pode recomendar outros</p><p>livros do mesmo gênero com base nas características compartilhadas</p><p>entre eles, como autor, tema ou estilo.</p><p>Segundo Provost e Fawcett (2016), outra técnica comum é a filtragem</p><p>baseada em conteúdo. Nessa abordagem, o sistema analisa as</p><p>características dos itens, como palavras-chave, tags ou descrições,</p><p>e compara essas características com as preferências do usuário.</p><p>Por exemplo, em um site de streaming de música, o sistema pode</p><p>34</p><p>recomendar novas músicas ou artistas com base nas características</p><p>musicais que o usuário demonstrou preferir, como gênero, ritmo ou</p><p>instrumentos utilizados. Além dessas técnicas tradicionais, técnicas</p><p>mais avançadas estão sendo aplicadas nos sistemas de recomendação</p><p>para melhorar a precisão e a personalização das recomendações. A</p><p>aprendizagem profunda, por exemplo, tem sido utilizada para criar</p><p>modelos complexos que podem aprender representações profundas</p><p>dos dados. Esses modelos são capazes de capturar relações complexas</p><p>entre usuários, itens e outros recursos, melhorando a qualidade das</p><p>recomendações. Por exemplo, a análise de redes neurais profundas</p><p>pode ajudar a identificar padrões sutis nas preferências dos usuários e</p><p>gerar recomendações mais precisas e personalizadas.</p><p>De acordo com Norvig e Russell (2014), outra técnica avançada é</p><p>o processamento de linguagem natural, que permite ao sistema</p><p>entender e interpretar avaliações e resenhas escritas pelos usuários.</p><p>Isso possibilita a extração de informações contextuais valiosas, como</p><p>sentimentos e opiniões, que podem ser usadas para aprimorar ainda</p><p>mais a capacidade de recomendação. Por exemplo, um sistema de</p><p>recomendação pode analisar uma resenha de um filme e identificar se</p><p>o usuário gostou ou não do enredo, dos personagens ou da atuação,</p><p>para oferecer sugestões mais adequadas aos seus gostos. Segue uma</p><p>representação de um sistema de recomendação:</p><p>35</p><p>Figura 1 – Representação de um sistema de recomendação</p><p>Fonte: Shutterstock.com.</p><p>É importante ressaltar que a implementação efetiva de sistemas</p><p>de recomendação requer um conjunto diversificado de técnicas e</p><p>algoritmos, além de uma infraestrutura robusta para processar grandes</p><p>volumes de dados. O armazenamento e o processamento eficiente</p><p>desses dados são essenciais para garantir que as recomendações sejam</p><p>geradas em tempo real e sejam escaláveis para atender a um grande</p><p>número de usuários.</p><p>Por fim, podemos relacionar que os sistemas de recomendação</p><p>são ferramentas poderosas que utilizam técnicas como filtragem</p><p>colaborativa, filtragem baseada em conteúdo, aprendizagem</p><p>profunda e processamento de linguagem natural para personalizar as</p><p>recomendações e melhorar a experiência do usuário. Esses sistemas</p><p>ajudam os usuários a descobrir novos produtos, serviços e conteúdos</p><p>relevantes, ao mesmo tempo em que impulsionam o engajamento e a</p><p>satisfação do usuário. Com o contínuo avanço das técnicas e tecnologias,</p><p>36</p><p>espera-se que os sistemas de recomendação se tornem ainda mais</p><p>sofisticados e eficazes.</p><p>3. Previsão de dados e análise de cenários</p><p>A previsão de dados e a análise de cenários são duas áreas essenciais</p><p>para as empresas e organizações que desejam tomar decisões</p><p>informadas e antecipar possíveis resultados futuros.</p><p>Segundo Amaral (2016), a previsão de dados envolve o uso de métodos</p><p>estatísticos, algoritmos de aprendizado de máquina e outras técnicas</p><p>para extrair informações úteis de conjuntos de dados históricos. Essas</p><p>informações podem ser usadas para identificar padrões, tendências e</p><p>relações entre variáveis, permitindo a criação de modelos preditivos.</p><p>Esses modelos são capazes de estimar valores futuros com base</p><p>nos dados observados no passado. Um exemplo prático da previsão</p><p>de dados é a previsão de vendas. Uma empresa pode analisar</p><p>dados históricos de vendas, como volume de vendas, sazonalidade,</p><p>eventos promocionais e fatores econômicos, e construir um modelo</p><p>preditivo que estime as vendas futuras. Esse modelo pode ajudar a</p><p>empresa a planejar a produção, ajustar os níveis de estoque e tomar</p><p>decisões estratégicas com base nas projeções de vendas. Segue uma</p><p>representação de um sistema de previsão de dados:</p><p>37</p><p>Figura 2 – Representação de um sistema de previsão de dados</p><p>Fonte: Shutterstock.com.</p><p>Além disso, a análise de cenários é uma abordagem que permite</p><p>simular diferentes situações e avaliar os possíveis resultados. Ela</p><p>envolve a criação de modelos que representam o sistema ou o</p><p>processo em estudo e a manipulação de variáveis-chave para explorar</p><p>diferentes cenários. Essa análise fornece insights valiosos sobre</p><p>como as mudanças em determinadas variáveis afetam os resultados</p><p>desejados. Por exemplo, uma empresa de energia pode realizar uma</p><p>análise de cenários para avaliar os impactos da adoção de fontes de</p><p>energia renovável em sua matriz energética. Ela pode criar modelos que</p><p>considerem variáveis como custos de investimento, disponibilidade de</p><p>recursos renováveis, políticas governamentais e demanda energética</p><p>futura. Ao simular diferentes cenários, a empresa pode identificar quais</p><p>opções são mais viáveis e benéficas do ponto de vista econômico e</p><p>ambiental.</p><p>Do ponto de vista técnico, a previsão de dados e a análise de cenários</p><p>envolvem o uso de algoritmos, técnicas estatísticas e ferramentas</p><p>38</p><p>de visualização de dados. Algoritmos de aprendizado de máquina,</p><p>como regressão linear, árvores de decisão e redes neurais, são</p><p>frequentemente aplicados na previsão de dados, pois podem lidar com</p><p>conjuntos de dados complexos e capturar relações não lineares entre as</p><p>variáveis.</p><p>Segundo Norvig e Russell (2014), na análise de cenários é comum o</p><p>uso de simulações computacionais, que permitem a manipulação de</p><p>variáveis e a observação dos resultados em diferentes situações. Além</p><p>disso, técnicas de visualização de dados, como gráficos e dashboards</p><p>interativos, são fundamentais para representar e comunicar os</p><p>resultados da previsão e da análise de cenários de forma clara e</p><p>compreensível. É importante ressaltar que a</p><p>qualidade dos resultados</p><p>obtidos na previsão de dados e na análise de cenários depende da</p><p>disponibilidade de dados confiáveis e relevantes. Além disso, a escolha</p><p>adequada das técnicas e dos modelos é essencial para garantir a</p><p>precisão e a validade das previsões e dos cenários simulados.</p><p>Por fim, podemos relacionar que a previsão de dados e a análise de</p><p>cenários são ferramentas poderosas que permitem antecipar o futuro</p><p>com base em dados e técnicas avançadas. Essas abordagens auxiliam</p><p>as empresas na tomada de decisões estratégicas, no planejamento de</p><p>recursos e na identificação de oportunidades e riscos. Com o contínuo</p><p>avanço das técnicas de aprendizado de máquina e análise de dados,</p><p>espera-se que a previsão de dados e a análise de cenários se tornem</p><p>ainda mais precisas e sofisticadas, impulsionando a eficiência e a</p><p>competitividade das organizações.</p><p>4. Exploração de dados para suporte à decisão</p><p>A exploração de dados desempenha um papel fundamental no suporte</p><p>à decisão, fornecendo informações valiosas e insights relevantes para</p><p>orientar as escolhas estratégicas das empresas e organizações.</p><p>39</p><p>De acordo com Norvig e Russell (2014), a exploração de dados refere-</p><p>se à análise minuciosa de conjuntos de dados brutos com o objetivo</p><p>de descobrir padrões, relações, tendências e correlações ocultas. Ao</p><p>utilizar técnicas estatísticas, algoritmos de aprendizado de máquina e</p><p>visualizações interativas, é possível extrair conhecimento acionável a</p><p>partir dos dados. Um exemplo prático da exploração de dados para</p><p>suporte à decisão é a análise de dados de mercado. Imagine que</p><p>uma empresa de varejo deseja expandir sua presença em uma nova</p><p>região. Ao explorar os dados disponíveis, como dados demográficos,</p><p>histórico de vendas, comportamento do cliente e informações sobre</p><p>a concorrência, a empresa pode identificar padrões e tendências que</p><p>ajudarão a tomar decisões informadas. Por exemplo, a análise pode</p><p>revelar que determinado grupo demográfico tem maior probabilidade</p><p>de adquirir produtos específicos, indicando uma oportunidade de</p><p>segmentação de mercado. Segue uma representação de um sistema que</p><p>facilita a exploração de dados para a tomada de decisão:</p><p>Figura 3 – Representação de um sistema que facilita a exploração de</p><p>dados para a tomada de decisão</p><p>Fonte: Shutterstock.com.</p><p>40</p><p>Além disso, a exploração de dados pode auxiliar na identificação de</p><p>problemas e gargalos em processos internos. Ao analisar os dados</p><p>operacionais, como tempos de produção, custos, eficiência e qualidade,</p><p>uma empresa pode identificar áreas que requerem melhorias ou</p><p>ajustes. Por exemplo, a análise pode revelar que uma etapa específica</p><p>do processo de produção está atrasando a entrega dos produtos,</p><p>permitindo à empresa tomar medidas corretivas para otimizar a</p><p>eficiência e melhorar a satisfação do cliente.</p><p>Segundo Amaral (2016), a exploração de dados também é útil na</p><p>detecção de fraudes e na gestão de riscos. Por meio da análise dos</p><p>dados transacionais, é possível identificar padrões suspeitos ou</p><p>comportamentos anômalos que podem indicar atividades fraudulentas.</p><p>Essa abordagem é amplamente utilizada em setores como serviços</p><p>financeiros, seguros e segurança cibernética, nos quais a detecção</p><p>precoce de fraudes é essencial para evitar perdas financeiras</p><p>significativas.</p><p>Do ponto de vista técnico, a exploração de dados envolve o uso de</p><p>ferramentas e técnicas avançadas. Algoritmos de aprendizado de</p><p>máquina, como agrupamento (clustering), classificação (classification)</p><p>e detecção de anomalias (anomaly detection), são frequentemente</p><p>aplicados na análise exploratória de dados. Esses algoritmos podem</p><p>revelar padrões complexos e insights ocultos nos dados, fornecendo</p><p>informações valiosas para a tomada de decisão.</p><p>Além disso, as visualizações interativas desempenham um papel</p><p>crucial na exploração de dados. Gráficos, mapas, dashboards e outras</p><p>representações visuais ajudam a comunicar informações complexas de</p><p>maneira clara e compreensível. Por exemplo, um gráfico de dispersão</p><p>pode revelar a relação entre duas variáveis, enquanto um mapa de calor</p><p>pode mostrar a distribuição geográfica de determinados dados.</p><p>41</p><p>Por fim, podemos relacionar que a exploração de dados é uma</p><p>abordagem essencial para o suporte à decisão, permitindo que as</p><p>organizações desvendem insights valiosos e otimizem seus resultados.</p><p>Ao analisar cuidadosamente os dados disponíveis, é possível identificar</p><p>padrões, tendências e relações que podem orientar a tomada de</p><p>decisões estratégicas. Com o avanço contínuo das técnicas de análise</p><p>de dados e visualização, a exploração de dados tem o potencial de</p><p>impulsionar a eficiência e a competitividade das empresas em diversos</p><p>setores.</p><p>Referências</p><p>AMARAL, Fernando. Introdução à Ciência de Dados: mineração de dados e big</p><p>data. Rio de Janeiro: Alta Books, 2016.</p><p>COPPIN, Ben. Inteligência artificial. Rio de Janeiro: Grupo Gen-LTC, 2015.</p><p>NORVIG, Peter; RUSSELL, Stuart. Inteligência Artificial. 3. Ed. Rio de Janeiro:</p><p>Elsevier Brasil, 2014</p><p>PROVOST, Foster; FAWCETT, Tom. Data Science para negócios. Trad. Marina</p><p>Boscatto. Rio de Janeiro: Alta Books, 2016.</p><p>42</p><p>Automatização de Tarefas e</p><p>Aumento de Produtividade com IA</p><p>Autoria: Marcelo Henrique dos Santos</p><p>Leitura crítica: Henrique Salustiano Silva</p><p>Objetivos</p><p>• Discutir sobre os benefícios da automatização de</p><p>tarefas repetitivas e demoradas.</p><p>• Visualizar exemplos de aplicação de IA na</p><p>automatização de processos.</p><p>• Estudar os princípios das plataformas e ferramentas</p><p>de automatização.</p><p>43</p><p>1. Benefícios da automatização de tarefas</p><p>repetitivas e demoradas</p><p>A automatização de tarefas repetitivas e demoradas é um processo que</p><p>utiliza tecnologias e ferramentas para substituir a intervenção manual</p><p>em atividades que consomem tempo e recursos. Essa abordagem traz</p><p>benefícios técnicos significativos para empresas e indivíduos, permitindo</p><p>melhorar a eficiência operacional, reduzir erros e liberar recursos</p><p>humanos para tarefas mais estratégicas.</p><p>De acordo com Coppin (2015), um dos principais benefícios técnicos</p><p>da automatização é a melhoria da velocidade e precisão das tarefas.</p><p>Ao substituir a intervenção manual por scripts, macros, softwares ou</p><p>sistemas específicos, é possível realizar tarefas repetitivas de forma</p><p>mais rápida e uniforme. Por exemplo, imagine uma empresa que</p><p>precisa processar centenas de formulários de inscrição diariamente.</p><p>Com a automatização, é possível criar um programa que extraia</p><p>automaticamente as informações dos formulários, valide os dados,</p><p>atualize bancos de dados e envie notificações aos interessados. Esse</p><p>processo automatizado reduz o tempo necessário para processar as</p><p>inscrições e minimiza a ocorrência de erros humanos.</p><p>Outro benefício técnico importante da automatização é a integração de</p><p>sistemas e processos. Muitas vezes, as organizações possuem diferentes</p><p>sistemas e softwares que não se comunicam entre si, dificultando a troca</p><p>de informações e tarefas entre eles. A automatização permite integrar</p><p>esses sistemas por meio de APIs (Application Programming Interfaces),</p><p>web services ou outras tecnologias de integração. Isso possibilita que os</p><p>dados fluam de forma automatizada entre os sistemas, eliminando a</p><p>necessidade de intervenção manual para transferência de informações.</p><p>Por exemplo, em um ambiente de e-commerce, a automatização pode</p><p>sincronizar automaticamente os dados de pedidos dos clientes com o</p><p>44</p><p>sistema de gestão de estoque, atualizando as quantidades disponíveis e</p><p>evitando vendas de produtos esgotados (Norvig; Russell, 2014).</p><p>Segundo Provost e Fawcett (2016), a escalabilidade é outro aspecto</p><p>técnico importante da automatização. À medida que uma empresa</p><p>cresce e as demandas aumentam, é necessário lidar com um volume</p><p>cada vez maior de tarefas. A automatização permite que as atividades</p><p>sejam dimensionadas de forma rápida e eficiente. Por exemplo,</p><p>ao automatizar o processo de envio de e-mails de marketing, é</p><p>possível criar um fluxo de trabalho automatizado que envie</p><p>e-mails</p><p>personalizados para milhares de clientes em um curto espaço de</p><p>tempo, sem exigir uma intervenção manual significativa. Isso garante</p><p>que as tarefas possam ser concluídas dentro dos prazos desejados,</p><p>independentemente do volume de trabalho.</p><p>Além disso, a automatização também pode oferecer recursos avançados,</p><p>como aprendizado de máquina e inteligência artificial. Essas tecnologias</p><p>permitem que os sistemas automatizados aprendam e melhorem com</p><p>o tempo, adaptando-se a padrões e refinando as tarefas realizadas. Por</p><p>exemplo, um sistema de atendimento ao cliente automatizado pode</p><p>aprender a partir de interações passadas, identificando problemas</p><p>comuns e gerando respostas mais precisas e personalizadas aos clientes</p><p>(Coppin, 2015).</p><p>A partir desse contexto, segue um esquema explicativo que apresenta</p><p>os benefícios técnicos da automatização de tarefas repetitivas e</p><p>demoradas:</p><p>45</p><p>Figura 1 – Esquema explicativo sobre os benefícios técnicos da</p><p>automatização de tarefas repetitivas e demoradas</p><p>Fonte: elaborado pelo autor.</p><p>A partir desse quadro, podemos relacionar que a automatização de</p><p>tarefas repetitivas e demoradas traz benefícios técnicos significativos.</p><p>Ela melhora a velocidade e precisão das tarefas, permite a integração</p><p>de sistemas e processos, garante escalabilidade para lidar com volumes</p><p>crescentes de trabalho e oferece recursos avançados, como aprendizado</p><p>de máquina e inteligência artificial. Esses benefícios contribuem para</p><p>a melhoria da eficiência operacional, redução de erros e liberação de</p><p>recursos humanos para tarefas mais estratégicas.</p><p>Por fim, segundo Provost e Fawcett (2016), a automatização de</p><p>tarefas repetitivas e demoradas traz benefícios técnicos significativos,</p><p>permitindo melhorar a velocidade, precisão, integração e escalabilidade</p><p>das atividades realizadas. Ao utilizar tecnologias e ferramentas</p><p>46</p><p>adequadas, as empresas podem automatizar uma ampla gama de</p><p>tarefas, liberando recursos humanos para atividades mais estratégicas e</p><p>complexas. A automatização se torna essencial em um mundo cada vez</p><p>mais digital e competitivo, impulsionando a eficiência operacional e a</p><p>produtividade.</p><p>2. Exemplos de aplicação de IA na</p><p>automatização de processos</p><p>A aplicação da Inteligência Artificial (IA) na automatização de processos</p><p>tem se mostrado extremamente promissora em diversos setores, graças</p><p>às suas capacidades técnicas avançadas. A IA utiliza algoritmos de</p><p>aprendizado de máquina, processamento de linguagem natural (NLP) e</p><p>análise de dados para otimizar a eficiência e a produtividade em várias</p><p>áreas. Um exemplo prático é a automação de atendimento ao cliente.</p><p>Nesse caso, a IA é utilizada para desenvolver chatbots inteligentes</p><p>capazes de compreender e responder às consultas dos clientes de forma</p><p>automatizada. Esses chatbots são treinados com algoritmos de NLP,</p><p>que lhes permitem entender a intenção do cliente e fornecer respostas</p><p>adequadas. Além disso, eles podem ser equipados com modelos de</p><p>aprendizado de máquina para melhorar sua capacidade de resposta</p><p>ao longo do tempo, adaptando-se a diferentes cenários e necessidades</p><p>dos clientes. Dessa forma, a IA na automatização do atendimento ao</p><p>cliente não só acelera o processo de resposta, mas também aprimora</p><p>a qualidade das interações e libera os funcionários para lidar com</p><p>questões mais complexas. Segue uma representação de um chatbot que</p><p>pode ser utilizado para realizar o atendimento aos clientes:</p><p>47</p><p>Figura 2 – Representação de um chatbot</p><p>Fonte: Shutterstock.com.</p><p>Outro exemplo de aplicação técnica da IA na automatização de</p><p>processos é a automação da análise de dados. Aqui, a IA é utilizada para</p><p>criar sistemas automatizados capazes de processar grandes volumes</p><p>de dados de forma rápida e precisa. Algoritmos de aprendizado de</p><p>máquina são empregados para identificar padrões, tendências e insights</p><p>relevantes nos dados analisados. Esses insights podem ser utilizados</p><p>para otimizar estratégias de negócios, identificar oportunidades de</p><p>crescimento e tomar decisões fundamentadas. Além disso, a IA pode</p><p>ser combinada com técnicas de visualização de dados avançadas para</p><p>facilitar a compreensão e a interpretação dos resultados, auxiliando os</p><p>profissionais a tomar ações mais assertivas. Segue uma representação</p><p>de um sistema que realiza a automatização da análise de dados:</p><p>48</p><p>Figura 3 – Representação de um sistema que realiza a</p><p>automação da análise de dados</p><p>Fonte: Shutterstock.com.</p><p>A IA também tem sido aplicada na automatização de processos</p><p>de recrutamento e seleção de pessoal. Nesse caso, algoritmos de</p><p>aprendizado de máquina são utilizados para analisar uma grande</p><p>quantidade de currículos e identificar os perfis mais adequados para</p><p>uma vaga específica. Esses algoritmos podem ser treinados com</p><p>base em critérios específicos, como habilidades técnicas, experiência</p><p>profissional e histórico educacional. Além disso, a IA pode ser</p><p>empregada para conduzir entrevistas automatizadas, utilizando</p><p>algoritmos de NLP para analisar as respostas dos candidatos. Essa</p><p>abordagem automatizada reduz o viés humano no processo de seleção</p><p>e acelera o tempo de contratação, permitindo que as empresas</p><p>identifiquem rapidamente os candidatos mais qualificados para as vagas</p><p>disponíveis (Norvig; Russell, 2014).</p><p>Outra aplicação técnica da IA na automatização de processos é a</p><p>manutenção preditiva. Sensores e dispositivos IoT são utilizados para</p><p>coletar dados em tempo real sobre o funcionamento de máquinas</p><p>49</p><p>e equipamentos. A IA, então, é aplicada para analisar esses dados e</p><p>identificar padrões que possam indicar falhas iminentes. Algoritmos</p><p>de aprendizado de máquina são utilizados para prever quando</p><p>uma máquina pode apresentar problemas e agendar manutenções</p><p>preventivas. Dessa forma, a IA na automatização da manutenção</p><p>preditiva ajuda a evitar paradas não planejadas e reduzir custos,</p><p>aumentando a eficiência operacional.</p><p>Esses exemplos fornecem uma visão mais técnica sobre como a IA</p><p>está sendo aplicada na automatização de processos. A utilização de</p><p>algoritmos de aprendizado de máquina, processamento de linguagem</p><p>natural e análise de dados permite a criação de sistemas inteligentes</p><p>capazes de tomar decisões e realizar tarefas de forma automatizada,</p><p>trazendo benefícios significativos em termos de precisão, velocidade e</p><p>eficiência. A IA na automatização de processos não só oferece melhorias</p><p>operacionais, mas também impulsiona a inovação, liberando recursos</p><p>humanos para se concentrarem em atividades mais estratégicas e</p><p>criativas.</p><p>3. Plataformas e ferramentas de</p><p>automatização</p><p>De acordo com Norvig; Russell (2014), a automatização de processos</p><p>tem se tornado cada vez mais relevante nas empresas, impulsionando</p><p>o surgimento de uma variedade de plataformas e ferramentas</p><p>especializadas nesse campo. Essas soluções oferecem recursos técnicos</p><p>avançados, permitindo a criação e implementação de fluxos de trabalho</p><p>automatizados, reduzindo a dependência de intervenções manuais e</p><p>melhorando a eficiência operacional.</p><p>Uma das plataformas amplamente utilizadas é o Zapier, que se</p><p>destaca por sua capacidade de integração de aplicativos e serviços.</p><p>50</p><p>Essa plataforma utiliza APIs (Interfaces de Programação de Aplicativos)</p><p>para estabelecer conexões entre diferentes sistemas. Os usuários</p><p>podem criar “zaps” que definem gatilhos em um aplicativo e ações</p><p>correspondentes em outro. Por exemplo, um zap pode ser criado para</p><p>automatizar o processo de coleta e organização de leads de vendas.</p><p>Quando um novo lead é adicionado a uma planilha do Google Sheets,</p><p>o zap pode acionar automaticamente o envio de uma mensagem</p><p>personalizada pelo Slack para a equipe de vendas. O zap pode ser</p><p>configurado para filtrar e transformar os dados conforme necessário,</p><p>garantindo que as informações relevantes sejam entregues de maneira</p><p>eficiente.</p><p>Outra plataforma avançada é a UiPath, conhecida como uma das líderes</p><p>em Automatização de Processos Robóticos (RPA). A UiPath oferece</p><p>um ambiente de desenvolvimento completo</p><p>para a criação de “robôs”</p><p>que executam tarefas repetitivas baseadas em regras. Esses robôs</p><p>interagem com interfaces de usuário, sistemas legados e aplicativos da</p><p>mesma forma que um usuário humano faria. A plataforma da UiPath</p><p>utiliza técnicas de automação por imagem e reconhecimento óptico de</p><p>caracteres (OCR) para manipular informações em interfaces gráficas e</p><p>extrair dados de documentos não estruturados. Por exemplo, um robô</p><p>pode ser configurado para automatizar o processo de reconciliação de</p><p>faturas, verificando automaticamente os dados da fatura em um sistema</p><p>financeiro e comparando-os com os dados em um documento PDF.</p><p>O IFTTT (If This, Then That) é uma ferramenta popular que permite a</p><p>automação de interações entre dispositivos e serviços online. O IFTTT</p><p>utiliza uma abordagem simples baseada em regras condicionais. Os</p><p>usuários podem criar “applets” que consistem em um gatilho e uma</p><p>ação. Por exemplo, um applet pode ser criado para automatizar o</p><p>controle de iluminação em uma casa inteligente. Quando um sensor</p><p>de movimento detecta a presença de alguém em uma sala, o applet</p><p>pode acionar automaticamente as luzes apropriadas. Essa ferramenta é</p><p>altamente personalizável e permite que os usuários criem suas próprias</p><p>51</p><p>automações, conectando dispositivos inteligentes, serviços de mídia</p><p>social e muito mais.</p><p>O Microsoft Power Automate, anteriormente conhecido como Microsoft</p><p>Flow, é uma plataforma que oferece recursos de automatização de fluxo</p><p>de trabalho para aplicativos e serviços da Microsoft. Essa plataforma</p><p>permite que os usuários criem fluxos de trabalho automatizados que</p><p>conectam aplicativos como Outlook, SharePoint, Teams e muitos outros.</p><p>O Power Automate suporta lógica condicional, permitindo a criação de</p><p>fluxos de trabalho mais complexos. Por exemplo, um fluxo de trabalho</p><p>pode ser criado para automatizar o processo de solicitação de férias</p><p>de funcionários. Quando um funcionário envia um e-mail solicitando</p><p>férias, o fluxo de trabalho pode enviar um formulário de aprovação</p><p>para o gerente apropriado e atualizar automaticamente o calendário</p><p>de férias. O Power Automate também oferece integração com serviços</p><p>cognitivos da Microsoft, como reconhecimento de fala e análise de texto,</p><p>para permitir a automação de tarefas que envolvem processamento de</p><p>linguagem natural e análise de dados.</p><p>Acompanhe a seguir algumas das principais plataformas de</p><p>automatização, suas funcionalidades e como elas podem ser aplicadas</p><p>para otimizar processos empresariais:</p><p>52</p><p>Figura 4 – Esquema apresentando em tópicos as principais</p><p>plataformas de automação</p><p>Fonte: elaborada pelo autor.</p><p>Esses exemplos demonstram como as plataformas e ferramentas de</p><p>automatização fornecem recursos técnicos específicos para simplificar e</p><p>aprimorar a implementação de fluxos de trabalho automatizados. Com o</p><p>uso de APIs, técnicas avançadas de automação e integração com serviços</p><p>adicionais, essas soluções oferecem maior flexibilidade e personalização</p><p>para atender às necessidades específicas das empresas.</p><p>De acordo com Amaral (2016), ao utilizar essas plataformas e</p><p>ferramentas, as empresas podem otimizar seus processos, reduzir</p><p>erros e aumentar a eficiência operacional de forma significativa.</p><p>A automatização de processos proporcionada por essas soluções</p><p>técnicas permite que as empresas se concentrem em tarefas de</p><p>maior valor agregado, enquanto as tarefas repetitivas e suscetíveis a</p><p>53</p><p>erros são realizadas de maneira confiável e eficiente pelos sistemas</p><p>automatizados.</p><p>Ao longo desse tópico, vimos que a automatização de tarefas com o</p><p>auxílio da inteligência artificial traz benefícios significativos, como a</p><p>redução de erros, aumento da eficiência e liberação de recursos para</p><p>tarefas mais estratégicas. Com exemplos práticos de aplicação da IA na</p><p>automatização de processos e a variedade de plataformas e ferramentas</p><p>disponíveis, as organizações têm a oportunidade de impulsionar sua</p><p>produtividade e alcançar resultados excepcionais. A combinação da</p><p>automatização de tarefas com a inteligência artificial abre caminho para</p><p>um futuro promissor, no qual os avanços tecnológicos continuam a</p><p>impulsionar o crescimento e a inovação.</p><p>Referências</p><p>AMARAL, Fernando. Introdução à Ciência de Dados: mineração de dados e big</p><p>data. Rio de Janeiro: Alta Books, 2016.</p><p>COPPIN, Ben. Inteligência artificial. Rio de Janeiro: Grupo Gen-LTC, 2015.</p><p>NORVIG, Peter; RUSSELL, Stuart. Inteligência Artificial. 3. ed. Rio de Janeiro:</p><p>Elsevier Brasil, 2014.</p><p>PROVOST, Foster; FAWCETT, Tom. Data Science para negócios. Trad. Marina</p><p>Boscatto. Rio de Janeiro: Alta Books, 2016.</p><p>54</p><p>Infraestrutura como</p><p>Código com IA</p><p>Autoria: Marcelo Henrique dos Santos</p><p>Leitura crítica: Henrique Salustiano Silva</p><p>Objetivos</p><p>• Compreender os princípios da Infraestrutura como</p><p>Código (IaC).</p><p>• Visualizar o processo de utilização de Terraform para</p><p>gerenciamento de infraestrutura.</p><p>• Discutir sobre a implementação de IA em nuvens</p><p>públicas (AWS e Azure).</p><p>• Discutir sobre a utilização de Databricks para</p><p>processamento de dados com IA.</p><p>55</p><p>1. Infraestrutura como Código (IaC)</p><p>A Infraestrutura como Código (IaC) é uma metodologia técnica que</p><p>permite a criação, configuração e gerenciamento de infraestrutura de TI</p><p>por meio de código. Com a IaC, as especificações da infraestrutura são</p><p>expressas em linguagens de programação, permitindo que as equipes</p><p>de desenvolvimento automatizem e versionem todo o ciclo de vida da</p><p>infraestrutura (Coppin, 2015).</p><p>Uma das ferramentas mais utilizadas para implementar a IaC é o</p><p>Terraform. O Terraform utiliza uma linguagem declarativa para</p><p>descrever a infraestrutura desejada em um arquivo de configuração.</p><p>Esse arquivo contém a definição dos recursos necessários,</p><p>como máquinas virtuais, redes, bancos de dados e serviços de</p><p>armazenamento. Por meio do Terraform, é possível definir a topologia</p><p>da infraestrutura e as dependências entre os recursos.</p><p>Ao executar o código do Terraform, ele interage com APIs de provedores</p><p>de nuvem, como AWS, Azure ou Google Cloud, para criar e configurar</p><p>automaticamente os recursos especificados. O Terraform realiza o</p><p>provisionamento de forma segura e idempotente, ou seja, apenas cria</p><p>ou atualiza os recursos quando necessário. Isso garante a consistência</p><p>da infraestrutura em diferentes ambientes, desde o desenvolvimento</p><p>até a produção.</p><p>Outra ferramenta popular é o Ansible, que permite a automação da</p><p>configuração e gerenciamento de servidores. O Ansible utiliza uma</p><p>linguagem de playbook para descrever as tarefas que devem ser</p><p>executadas nos servidores. Essas tarefas abrangem desde a instalação</p><p>de pacotes e configuração de serviços até a aplicação de políticas de</p><p>segurança. O Ansible é baseado em SSH e executa as tarefas de forma</p><p>remota nos servidores alvo, garantindo a padronização e a automação</p><p>da configuração.</p><p>56</p><p>Além disso, de acordo com Amaral (2016), a IaC promove a prática de</p><p>versionar o código de infraestrutura. Isso significa que as definições de</p><p>infraestrutura são tratadas como código-fonte e armazenadas em um</p><p>sistema de controle de versão, como Git. Por meio do versionamento, é</p><p>possível acompanhar as alterações na infraestrutura ao longo do tempo,</p><p>facilitar a colaboração entre as equipes e realizar rollbacks em caso de</p><p>problemas.</p><p>A IaC também permite a implementação de boas práticas de DevOps,</p><p>como integração contínua e entrega contínua (CI/CD). Com o uso de</p><p>ferramentas como Jenkins ou GitLab CI/CD, é possível automatizar o</p><p>processo de compilação, teste e implantação da infraestrutura. Isso</p><p>garante que as mudanças na infraestrutura sejam rastreáveis, testadas</p><p>e implantadas de forma consistente em diferentes ambientes. Além</p><p>dos benefícios de automação e escalabilidade, a IaC também oferece</p><p>a possibilidade de tratar a infraestrutura como código revisável e</p><p>auditável. Os arquivos de configuração da infraestrutura podem ser</p><p>revisados e validados por pares, facilitando a detecção de erros e</p><p>melhorando a qualidade geral da infraestrutura (Coppin,</p>

Mais conteúdos dessa disciplina