Baixe o app para aproveitar ainda mais
Prévia do material em texto
BIG BRAIN UNINDO BIG DATA E A INTERNET DAS COISAS PARA CRIAR ROBÔS CADA VEZ MAIS INTELIGENTES Primeira Edição – 01/12/2016 Edição 2.47 – 20/12/2016 Copyright © Rogério Figurelli Os direitos de todos os textos contidos neste livro eletrônico são reservados a seu autor, e estão registrados e protegidos pelas leis do direito autoral, em todas suas edições. Esta é uma edição eletrônica - e-book comercial -, que não pode ser vendida, distribuída nem comercializada, em hipótese nenhuma, nem utilizada para quaisquer fins, sem a expressa autorização por escrito do autor. É permitido o armazenamento deste livro em computadores ou dispositivos pessoais do comprador, com o único objetivo de leitura de seu conteúdo em meio eletrônico. Nenhuma parte isolada deste livro pode ser copiada, reproduzida, ou armazenada em qualquer meio, ou ainda utilizada para qualquer fim. Este livro eletrônico não pode ser impresso. Conteúdo Sobre o Autor Prefácio Capítulo 1. Uma arquitetura Data x Big Data para tudo Capítulo 2. Do Big Data ao Big Brain Capítulo 3. Os 7 Bs do Big Brain Capítulo 4. Modelo universal de decisão através de robôs Capítulo 5. A lei da Transferência de Inteligência Capítulo 6. Impactos na criatividade artificial e inovação Capítulo 7. O futuro do Big Brain Referências Sobre o Autor Rogério Figurelli é CEO da empresa Trajecta – Consultoria e Projeto de Robôs - www.trajecta.com.br, a primeira empresa brasileira de consultoria especializada em robôs, atuando como consultor de empresas no planejamento, operacionalização, auditoria e projeto de robôs, para as mais variadas aplicações de mercado e modelos de negócio. Com mais de 35 anos de experiência na área de Tecnologia da Informação e de 20 anos no mercado de robôs, é engenheiro eletricista/eletrônico pela UFRGS e mestre em ciências da computação, também pela UFRGS. Possui pós-graduação em gestão de pessoas, estratégias e negócios – MBA pela Fundação dos Administradores do Rio Grande do Sul. Especialista no desenvolvimento de tecnologias nas mais diversas plataformas e áreas do conhecimento, além de algoritmos especialistas e sistemas quantitativos nos mais variados níveis de complexidade, como aplicações de inteligência de máquina, deep learning e modelos evolucionários. É pioneiro no desenvolvimento de robôs e em pesquisa de várias tecnologias de inteligência artificial forte, criando centenas de robôs brasileiros desde 1996, quando começou a atuar nesse mercado. Contato: https://br.linkedin.com/in/figurelli Prefácio Como transformar o Data, e o Big Data, ainda mais com o grande volume de dados adicionado pela Internet das Coisas – ou IoT (Internet of Things) – no Big Brain? Essa é a pergunta que iremos buscar responder nesse livro, com diversas arquiteturas, começando inicialmente pela separação de Data e Big Data, com um modelo similar ao que considero ser feito em nosso cérebro. Afinal, se queremos buscar o Big Brain, e temos um modelo operacional do nosso cérebro cada vez mais aberto e conhecido, graças às pesquisas das mais variadas áreas, destacadamente as de neurociência, é lógico que buscar modelos similares irá acelerar anos de evolução para nossos algoritmos, principalmente se esse Big Brain for operacionalizado como parte de um sistema mais complexo, que é o de um robô. Na arquitetura que proponho, como base para formação do Big Brain, busco separar os dados e processamento em duas camadas, como acontece de forma similar em nosso cérebro, com o processamento consciente e inconsciente. No caso, o processamento de Big Data estaria focado exclusivamente na produção de inteligência a partir dos dados, entregues diretamente para o processamento de Data. Na prática, não há nenhuma regra ou compromisso que a inteligência produzida pelo processamento de Big Data se transforme em informações relevantes para os sistemas que irão, de alguma forma, consumir essa inteligência. O relevante mesmo é que ela seja permanentemente produzida, sem nenhuma perda de dados de entrada para isso. Outro ponto relevante da arquitetura é a análise de toda e qualquer entrada de transações, seja já diretamente no formato de dados estruturados, seja em formatos variados, como previsto pelo V de variedade do conceito de Big Data. Esse processamento de Big Data, desde o tratamento de dados primários até a produção e análise de informações, com formação de regras de inteligência, deve ser um processo contínuo, sem interrupções, qualificando cada vez mais o processamento de Data, que seria a área mais nobre da arquitetura, com limitações bem maiores de recursos. Além disso, a ideia é permitir que a interface com os tradicionais sistemas e dispositivos de mercado possa ser feita para qualquer coisa, como por exemplo um automóvel. Ou seja, a mesma arquitetura válida para a interface com um computador ou servidor, ou ainda um smartphone ou tablet, deve ser válida para a interface com qualquer outro objeto, desde que obviamente esse possua alguma comunicação com o processamento de Data. A possibilidade de adotar a mesma arquitetura para qualquer Sistema ou Coisa, ou Tudo, com exatamente a mesma interface e protocolos, abre as portas para a máxima aquisição de dados, informações e inteligência do ambiente externo para o processamento de Data ou Big Data, e, como veremos mais adiante, como substrato para formação do Big Brain. Obrigado e boa leitura, Rogério Figurelli "Como a mente funciona ainda é um mistério. Nós entendemos o hardware, mas não temos a menor ideia sobre o sistema operacional." James Watson Capítulo 1 Uma arquitetura Data x Big Data para tudo Quando pensamos em arquitetura de algum produto, principalmente na área de Tecnologia da Inteligência [1], que é como prefiro referir à nova TI, o ideal é abstrair toda e qualquer limitação técnica, pelo menos no início do projeto e, evidentemente, dentro da lógica do bom senso, se é que possível fazer isso. Um exemplo prático dessa abordagem, para melhor entendimento, é o que é feito pelos Web Designers, ao projetarem o design de um site. O ideal nesse caso é começar com uma folha em branco, ou seja, um arquivo novo, usando algum aplicativo de edição de imagens ou de computação gráfica, fazendo o desenho livremente, até compor todo o design do site. Com essa liberdade, é natural que determinadas limitações de recorte e montagem em páginas html ou compatíveis, principalmente de linhas curvas, sejam relevadas, em favor de um design competitivo. Se, por outro lado, o projeto for feito com o foco nos aspectos de complexidade de construção, é muito provável que o efeito visual fique comprometido, e até mesmo a própria usabilidade final de todo o site. Dessa forma, como arquitetos de sistemas de informação, principalmente quando eles fazem parte de robôs, seja envolvendo apenas software, ou ainda hardware e peças mecânicas, o papel em branco pode ser a melhor ferramenta de projeto, seja ele analógico ou digital. A diferença de Data x Big Data x Big Brain O principal conceito de Big Data, e que diferencia do Data tradicional, foi o apresentado por Doug Laney da consultoria Gartner [2], no artigo ‘3-D Data Management: Controlling Data Volume, Velocity and Variety’. A ideia dos 3 Vs, e gestão tridimensional dos dados, envolvendo volume, velocidade e variedade – como os tipo de dados, por exemplo texto, vídeos, etc. – se mostra cada vez mais correta, tendo sido agregadas ainda duas outras dimensões, veracidade e valor, para formar os 5 Vs do Big Data [3]. Ou seja, talvez a melhor forma de definir o que é o Big Data seja endereçar ao mesmo tempo esses 5 Vs – volume, velocidade, variedade, veracidade e valor – de forma realmente eficaz, o que no meu entender, consiste em criar sistemas mais inteligentes e com melhor qualidade de tomada de decisões.E se isso é verdade, talvez o próprio conceito de Big Data perca o sentido se não evoluir para um novo conceito, que chamo de Big Brain, onde o valor e a eficácia de todos Vs do Big Data é traduzido na criação de um grande cérebro inteligente. Figura 1.1 – Data x Big Data para os Sistemas Mas como transformar o Data, e o Big Data, ainda mais com o grande volume de dados adicionado pela Internet das Coisas – ou IoT (Internet of Things) – no Big Brain? Essa é a pergunta que iremos buscar responder nesse livro, com diversas arquiteturas, começando inicialmente pela separação de Data e Big Data, com um modelo similar ao que considero ser feito em nosso cérebro, como mostra a figura 1.1. Afinal, se queremos buscar o Big Brain, e temos um modelo operacional do nosso cérebro cada vez mais aberto e conhecido, graças às pesquisas das mais variadas áreas, destacadamente as de neurociência, é lógico que buscar modelos similares irá acelerar anos de evolução para nossos algoritmos, principalmente se esse Big Brain for operacionalizado como parte de um sistema mais complexo, que é o de um robô. Figura 1.2 – Data x Big Data para as Coisas Na arquitetura que proponho, como base para formação do Big Brain, busco separar os dados e processamento em duas camadas, como acontece de forma similar em nosso cérebro, com o processamento consciente e inconsciente. No caso, o processamento de Big Data estaria focado exclusivamente na produção de inteligência a partir dos dados, entregues diretamente para o processamento de Data. Na prática, não há nenhuma regra ou compromisso que a inteligência produzida pelo processamento de Big Data se transforme em informações relevantes para os sistemas que irão, de alguma forma, consumir essa inteligência. O relevante mesmo é que ela seja permanentemente produzida, sem nenhuma perda de dados de entrada para isso. Outro ponto relevante da arquitetura é a análise de toda e qualquer entrada de transações, seja já diretamente no formato de dados estruturados, seja em formatos variados, como previsto pelo V de variedade do conceito de Big Data. Esse processamento de Big Data, desde o tratamento de dados primários até a produção e análise de informações, com formação de regras de inteligência, deve ser um processo contínuo, sem interrupções, qualificando cada vez mais o processamento de Data, que seria a área mais nobre da arquitetura, com limitações bem maiores de recursos. Além disso, a ideia é permitir que a interface com os tradicionais sistemas e dispositivos de mercado possa ser feita para qualquer coisa, como por exemplo um automóvel, na figura 1.2. Ou seja, a mesma arquitetura válida para a interface com um computador ou servidor, ou ainda um smartphone ou tablet, deve ser válida para a interface com qualquer outro objeto, desde que obviamente esse possua alguma comunicação com o processamento de Data. A possibilidade de adotar a mesma arquitetura para qualquer Sistema ou Coisa, ou Tudo, como refiro no título do capítulo, com exatamente a mesma interface e protocolos, abre as portas para a máxima aquisição de dados, informações e inteligência do ambiente externo para o processamento de Data ou Big Data, e, como veremos mais adiante, como substrato para formação do Big Brain. Unindo Big Data e Internet das Coisas O potencial da união de Big Data e Internet das Coisas é ilimitado, principalmente pelo crescimento da quantidade e qualidade de sensores, cada vez mais diferenciados dos dispositivos existentes. Em termos de Big Brain, podemos considerar que os sensores de ambiente agregam níveis de consciência ao cérebro artificial, que é um dos problemas mais complexos de dimensionar e endereçar na área de inteligência artificial. E, sem dúvida, é necessário pensar em arquiteturas escalares a ponto de explorar a quantidade de sensores que podem ser agregados aos sistemas de inteligência distribuída baseados em Big Data. Por exemplo, supondo apenas um veículo na figura 1.2, e a partir do momento que é conectado à internet, o volume de dados que poderá ser transmitido em tempo real irá depender basicamente da limitação de conexão, pois a quantidade de sensores em uma automóvel pode ser muito grande. E, se temos milhões de veículos com a mesma tecnologia, imediatamente o problema de tratamento desse volume passa a ser ter capacidade para processar volumes gigantescos de dados, que é justamente o objetivo de existir um Big Brain, com capacidade de análise dos dados, em qualquer dimensão, constantemente. Em tese, o grande desafio do Big Data, antes de qualquer análise, é não perder nenhum dado, ou, dentro do possível, minimizar essa perda, mantendo eles para sempre. Mas, na prática, o grande desafio de Big Data juntamente com a Internet das Coisas, é a capacidade de transferência de dados e transações em tempo real, que envolve todo o processo de coleta, principalmente pelos custos associados aos meios de transmissão móveis. Ou seja, de nada adianta ter sensores de alta capacidade de coleta de dados e transações, se não temos tempo suficiente para transmitir eles para os sistemas remotos. Inteligência em tempo real para o Big Brain Os robôs, máquinas essenciais para a criação do Big Brain, abrem as portas para a inteligência em tempo real, tanto para eles próprios como para nós, humanos, através das tecnologias de inteligência aumentada e inteligência artificial. No mercado financeiro, por exemplo, as decisões são tomadas pelos robôs em tempos cada vez menores e já abaixo de um milissegundo, com limites determinados cada vez mais pela própria velocidade da luz. E são decisões que podem envolver milhões de reais. Da mesma forma, através das tecnologias de RPA ou Robotic Process Automation e SPA ou Smart Process Automation, vários ajustes e definições de regras de negócio das empresas nas mais variadas áreas são feitos também cada vez mais em tempo real. Como, tipicamente, as decisões de comércio eletrônico e de análise de crédito. Na prática, a inteligência humana se torna cada vez mais impactada, criando novos paradigmas como a inteligência aumentada e a inteligência acelerada, que é a que proponho na minha teoria do tempo ao quadrado, e da própria inteligência ao quadrado. Os riscos da decisão em tempo real Evidentemente que, como toda nova tecnologia de ruptura, existem diversos riscos em decidir em tempo real, como no passado existiam – e ainda existem – os riscos de transações em tempo real na internet, como no caso do comércio eletrônico e do homebanking, das gerações passadas de tecnologia da informação. Mas esses riscos devem ser vistos como mais problemas a serem endereçados pela Tecnologia da Inteligência - a nova TI -, e justamente essa é uma de suas responsabilidades. E uma das formas de minimizar os riscos é através do controle de falhas e erros dos robôs,ou seja, com sistemas de tolerância a falhas que sejam capazes de deixar as máquinas mais resilientes para essas situações, que fatalmente irão acontecer, nos níveis de complexidade que se espera para o Big Data e Internet das Coisas. O poder da execução flexível Os robôs permitem as mais variadas abordagem de execução dos processos, com capacidade inclusive de gerenciamento de outros robôs, como vimos anteriormente. E essa flexibilidade acontece desde a execução de processos e projetos, até a sua configuração e definição de arquitetura de servidores e sistemas para seu correto funcionamento. Além da centralização e padronização dos processos, e da redução de custo e aumento da produtividade, a disseminação do uso de robôs na execução de processos e projetos pode representar uma série de outros benefícios de mercado que podem ser identificados através do uso de gráficos exibindo as dimensões de tempo: robôs x humanos. Na prática, deve-se buscar migrar as atividades do eixo dos humanos para atividades do eixo dos robôs, sem comprometer a qualidadeanterior, o que nem sempre é possível. * * * Capítulo 2 Do Big Data ao Big Brain A arquitetura proposta no capítulo 1 é fundamental para organizar a coleta e processamento de dados, assim como a produção de informações e inteligência, mas necessitamos de um robô com acesso aos diversos elementos de Data e Big Data, para os mais diversos Sistemas e Coisas, ou seja, Tudo, para de fato realizar análises que possam refletir na tomada de decisões como esperado pelo Big Brain. Figura 2.1 – Data x Big Data para Robôs analisando Sistemas e Coisas A figura 2.1 apresenta o novo componente Robô para essa tarefa de análise de Sistemas e Coisas, com armazenamento e produção independente de bases de conhecimento e inteligência. Da mesma forma, a figura 2.2 utiliza um conceito de empresa do futuro, que denomino de Cliente S/A, totalmente automatizada e com capacidade de ser gerida diretamente pela análise de necessidades dos clientes, com autonomia para tomada de decisões. Figura 2.2 – Data x Big Data para Robôs analisando Sistemas e Coisas na empresa do futuro A vantagem dessa abordagem é separar a base de conhecimento (KB) e de inteligência dos robôs dos sistemas de coleta e análise de dados e informações dos Sistemas e Coisas, pertencentes ao mesmo ecossistema, agregando uma hierarquia de inteligência ao Big Brain. Hierarquia de inteligência do Big Brain Talvez uma das capacidades mais complexas de simular e emular, por depender da construção de modelos mais realistas, seja a forma de organização hierárquica da inteligência, que tento de alguma forma agregar à arquitetura proposta, de forma gradual. Mas a grande vantagem competitiva de máquinas como os robôs é que podemos escalar essa hierarquia em níveis muito superiores ao que, pelo menos em tese, seria possível fazer organizando os dados e informações em nosso cérebro. Impactos sociais dos robôs Em uma estrutura hierárquica de inteligência, inclusive com gestores robôs atuando nos processos e até mesmo em projetos automatizados, um único robô de alta capacidade de processamento paralelo pode substituir o trabalho de vários operadores. Se por um lado pode-se esperar a melhoria na qualidade de produtos e redução de seus custos, e portanto do preço final para os consumidores, por outro lado devemos estar atentos aos impactos sociais dos robôs. Não por menos, com a crescente utilização de computadores e robôs inteligentes nas empresas, muito se fala de um Era dos Robôs e desemprego. Realmente vivemos uma realidade em que o computador ocupa cada vez mais seu espaço nas organizações, através dos mais variados conceitos de robótica e automação de modelos de negócio, que, a meu ver, não deve ser vista como um problema e ameaça, mas como uma oportunidade única de crescimento e evolução. Ou seja, será que não estamos vivendo justamente a Era da Criatividade, onde empresas e colaboradores serão 'forçados' a evoluir para uma consciência de emprego e trabalho muito mais criativa? Evidentemente que as empresas e governos devem ajudar nesse sentido, mas, antes de esperar por isso, os colaboradores devem buscar soluções criativas para se manterem mais competitivos que os robôs, nas mais variadas áreas do conhecimento. A próxima Era da Criatividade Certamente os robôs vão dominar as áreas onde o trabalho é hoje quase instintivo, ou seja, executado de forma repetida ou rotineira. Portanto, um sinal claro de que os trabalhadores devem buscar trabalhar de forma criativa e se manterem competitivos é buscar fugir desse tipo de área. E como criar exige uma linha de pensamento ainda distante dos melhores sistemas de inteligência artificial, esse é na minha opinião o ponto fraco dos robôs. Como o advisor discricionário que cria uma nova estratégia inovadora. Como o operário que cria uma nova tecnologia de lean manufacturing. Como os arquitetos que criam as tecnologias dos próprios robôs. Como o gerente que cria um novo modelo de negócios a partir da automação dos processos. Como o acionista que cria uma nova empresa em um oceano azul. São infinitas as possibilidades de nosso potencial criativo e de Inteligência Evolutiva [8] para continuar na frente das máquinas, por mais que possam evoluir seus modelos artificiais, mantendo elas como ferramentas de nossa criatividade. E para encontrar elas, basta buscar problemas novos ou complexos, que até mesmo o ser humano ainda não conseguiu imaginar soluções. E, se você procurar bem, vai encontrar eles em todos lugares. Quando encontrar, agradeça a Era dos Robôs, pois ela criou a Era da Criatividade. Afinal, se as máquinas estão evoluindo, nós, humanos, que não somos máquinas, embora alguns pensem assim, e que temos muito mais capacidade de pensamento, além de consciência disso - o que é mais relevante e provavelmente as máquinas nunca terão -, devemos e saberemos evoluir muito mais. * * * Capítulo 3 Os 7 Bs do Big Brain O conceito de Big Brain busca unir a força de outros conceitos, principalmente de Big Data e Internet das Coisas, em busca de um cérebro artificial cada vez maior em termos de objetos e capacidade de processamento, com aumento contínuo de base de conhecimento e inteligência. Para facilitar o entendimento, podemos compor o Big Brain em 7 Bs, descritos a seguir: Big: deve englobar o aumento cada vez maior de volume de dados, informações e inteligência, além de sistemas e coisas. Bandwidth: os sistemas e coisas, ou tudo conectado dentro do Big Brain, deve ter aumento constante de largura de banda, buscando cada vez mais aumentar e enriquecer sua inteligência. Bind: deve haver simplicidade e facilidade de integração de qualquer sistema ou coisa à arquitetura. Background: a produção de inteligência deve seguir um modelo sem consciência do cérebro, com operação permanente de sinapses artificiais e busca de novos dados, informações e regras de forma automática. Build: deve englobar o aumento cada vez maior de objetos dos mais variados tipos, incluindo todo e qualquer sistema ou coisa que possa ser conectado e que tenha capacidade de agregar inteligência para o processo de tomada de decisão. Broadcast: deve ter capacidade de disseminar dados, informações e inteligência, destacadamente no formato de decisões operacionais, táticas e estratégicas. Brain: deve buscar alinhamento com o funcionamento do cérebro e de linhas de pensamento e inteligência consciente, dentro dos estado da arte de inteligência artificial genérica e forte. Note-se que a principal diferença de conceito do Big Brain em relação ao próprio Big Data está no foco dos resultados de inteligência para o processo de real tomada de decisões, imitando a linha de processamento do cérebro humano. E nesse ponto se torna relevante a adoção de robôs com hierarquia crescente de inteligência, como o Robô Mestre da figura 3.1, englobando outros robôs e a própria empresa do futuro Cliente S/A. Figura 3.1 – Data x Big Data para Robô Mestre controlando outros robôs A ideia da hierarquia crescente de robôs e inteligência na proposta do Big Brain permite buscar endereçar soluções para os mais complexos problemas de mercado, assim como aplicar arquiteturas adicionais, como o modelo universal de decisão através de robôs, que será apresentado no próximo capítulo, justamente com esse objetivo. E, em níveis mais abstratos de inteligência, o Robô Gestor poderá também assumir novas camadas de decisão operacional, tática e estratégica, dentro de suas regras de negócio e atribuições. Por exemplo, como mostra a figura 3.2 o Robô Gestor poderá ser o CEO artificial de uma empresa, controlando a empresa do futuro de forma automática e a interface de produtos e serviços com os clientes para medição de qualidade e busca de novos produtos e serviços para atender continuamente as necessidades crescentes dos clientes finais. Figura 3.2– Data x Big Data para Robô Gestor controlando outros robôs O conceito essencial do Big Brain é a busca crescente de Sabedoria, com níveis cada vez maiores de inteligência e consciência artificial, principalmente através da Internet das Coisas. O aumento da consciência artificial com a Internet das Coisas Se aumentamos cada vez mais a capacidade de produção de inteligência artificial do Big Brain, e de sua consciência artificial, conseguiremos superar a qualidade de decisões humanas? Essa é uma das principais dúvidas na área, e minha resposta é que nosso nível de consciência artificial ainda é muito limitado. Em outro livro apresento uma equação, que denomino de Equação da Sabedoria [4], que penso ser fundamental em uma Era dos Robôs, para melhor entendimento da capacidade da inteligência das máquinas, principalmente em comparação com a humana, porque acredito que uma das grandes falhas de análise de inteligência artificial e capacidade de aplicação autônoma dela, como propõe a teoria da Singularidade Tecnológica [10], está justamente no fato de desconsiderar o nível de consciência em que ela é aplicada, que é uma das variáveis fundamentais de definição de sabedoria. Dessa forma, procurando endereçar esse desafio, proponho nesse livro uma equação para a sabedoria, que vale para humanos e robôs, suas máquinas, permitindo diferenciar bem essas capacidades. A lógica proposta é muito simples, ou seja, uma métrica de sabedoria S a partir de uma métrica de inteligência I, elevada a uma métrica de consciência C. Em tese, tanto a métrica de inteligência como a métrica de consciência poderão depender de uma série de outros fatores, como veremos no livro, mas o mais relevante é não perder o foco de comparação entre os seres humanos e os robôs, identificando as limitações de cada caso. A ideia da equação é também começar a medir, desde agora, a grande capacidade cognitiva dos robôs, que irá atingir também a área de criatividade, proporcionando a formação da próxima era, que considero ser a Era da Criatividade. E a explosão de inteligência e criatividade, transferida entre humanos e robôs, de forma cada vez mais consciente e autoconsciente, irá formar a futura Era da Sabedoria, fundamental para nossa evolução. Se considerarmos a equação que proponho, de nada adianta uma grande evolução da inteligência artificial das máquinas para sua sabedoria, se a consciência das máquinas for muito inferior à humana. Ainda mais se levarmos em conta a autoconsciência, que é ainda incipiente nas máquinas. Digo isso porque já existem pesquisas buscando fazer as máquinas terem autoconsciência, reconhecendo a si mesmas e diferenciando de outros robôs. E, na verdade, as máquinas já possuem uma consciência do ambiente que são utilizadas, a partir de múltiplos sensores para isso, mas ela ainda é muito inferior à humana, e justamente o que nos diferencia das máquinas. Alguns filósofos consideram que somos todos máquinas também, mas acredito que justamente a evolução de nossa consciência é que nos diferencia das máquinas, e não os aspectos mecânicos ou automáticos, e até mesmo as capacidades cognitivas mais nobres de inteligência racional e criativa, de nosso cérebro, que podem cada vez mais serem comparados com o de nossas máquinas. E a Equação da Sabedoria torna a tese da Singularidade Tecnológica [10] mais complexa, pois já não leva em conta apenas a inteligência artificial, mas toda a consciência e autoconsciência como uma métrica multiplicadora, mais relevante. Mas o principal impacto da equação, será na empregabilidade, uma vez que ela passa a ser considerada e comparada pela própria sabedoria e não mais apenas pela inteligência. Senão, seria realmente muito fácil os robôs dominarem todos os empregos, se apenas o critério de inteligência fosse o mais relevante. Mas, de que serve essa inteligência, sem a sabedoria em níveis de consciência que realmente representem em melhoria de qualidade de produtos e serviços? E esse é o ponto que deve ser a busca constante dos profissionais para diferenciação em relação ao robôs, na disputa pelo emprego e pelo trabalho nas empresas. Ainda mais se levarmos em conta o potencial de transferência de inteligência, que é uma lei fundamental que proponho para os robôs, somando inteligência natural e artificial em uma única consciência, mais evoluída. Para um exemplo prático dessa lógica, e teoria, imagine um hospital do futuro, onde poderemos encontrar diversas salas de cirurgias apenas com robôs e pacientes, mas o que se espera é que elas estejam sob controle de médicos humanos e sua criatividade, tomando as decisões mais relevantes que apenas a capacidade cognitiva e criatividade de nosso cérebro seria capaz de fazer. Mas será que algum dia os robôs poderão ter consciência como os humanos, ou seja, uma consciência artificial? Por exemplo, um robô gerente com consciência disso dentro das empresas? Figura 3.3 – Comunicação entre gestores e o gerente robô Considero a comunicação entre gestores humanos e robôs, como mostra a figura 3.3, e como uma atribuição fundamental para a criação de gerentes robôs, que evidentemente deverão ser reportar para seus diretores ou diretamente para os vice-presidentes ou a camada C-Suite das empresas, e apresento ela em outros livros [5][6][7][8] como uma possibilidade. Mas confesso que sempre que vejo essa figura, que desenhei no papel a alguns anos atrás, fico imaginando se essa ‘convivência’ entre os homens e robôs não pode gerar uma consciência artificial, como a proposta no conto de Asimov, O Homem Bicentenário, que foi transformado em filme anos mais tarde. Evidentemente que quando a comunicação é entre gerentes robôs, essa poderia ser diretamente através de troca de dados e transações. Mas considero muito relevante planejar em uma arquitetura com robôs o aspecto de comunicação humana desde esse tipo de comunicação mais digital, pois ela poderá ser uma referência para o controle de qualidade das ações dos gerentes robôs. Por exemplo, digamos que o robô gerente A seja responsável por cinco processos na área financeira, como comunicação em alta frequência com o mercado de capitais, ajuste de perfil de robôs advisors responsáveis por aplicações financeiras da empresa, etc. E que um segundo robô seja o gerente B e responsável por três processos na área de cadeia de suprimentos, com por exemplo controle de entrega de produtos em depósitos distribuídos em determinada região, abastecimento de caminhões, etc. E, para esse cenário, o gerente B precisa de liberação de recursos para abastecimento de um determinado caminhão. Em tese, bastaria uma troca de dados direta entre o gerente A e gerente B para a tomada de decisão de liberação de verba de abastecimento, o que se daria em uma forma básica apenas com atualização de registros em uma base de dados comum, evidentemente com os devidos logs das transações. Outra forma, complementar, mas mais dentro do que se espera para controle da tecnologia de automação dos processos com robôs, seria uma comunicação do tipo abaixo, que poderia ser acessada ou acompanhada em tempo real pelos diretores ou camada C-Suite da empresa. ∞ Necessito em no máximo 12 minutos de aprovação de R$ 520,00 para abastecimento do caminhão CX2, que está estacionado no posto PY76 na cidade de São Paulo. O motorista MT92 aguarda aprovação dentro do tempo máximo, evitando comprometer o prazo de entrega – disse o gerente robô B. ∞ Liberação autorizada dentro do tempo solicitado. Favor encaminhar cópia de comprovante de abastecimento para caixa-postal CP3346, com cópia oculta para a caixa-postal CP7424. – respondeu o gerente robô A. Nesse ponto, é possível verificar como uma comunicação no padrão humano pode tornar o controle pela diretoria da empresa, ou até mesmo de gestores de outras áreas, como de qualidade e tecnologia, em supervisão dos robôs, muito mais simplificado e direto, como acontece na comunicaçãodo dia a dia entre operadores e gestores humanos. Além disso, esse mesmo diálogo poderá ter imediata participação de outros colaboradores, humanos ou robôs, como por exemplo. – Constato que o motorista MT92 está com uma pendência do tipo NK399, solicito que seja comunicado a ele assim que possível para que seja corrigida após o abastecimento – disse o gerente humano H ao gerente robô B. ∞ Solicitação recebida e confirmada – respondeu o gerente robô B. Uma vantagem da tecnologia é que o registro dessas comunicações poderá ficar imediatamente na base de dados, ou seja, em tempo real, tanto em formato de texto como em formato de voz, facilitando a identificação de problemas por outras áreas ou pelos diretores que são reportados pelos gerentes humanos e robôs. Esse processo de comunicação permite uma padronização de processos de forma independente de questões eminentemente técnicas, tornando muito mais simples de ser controlada e entendida por todos os times e áreas das empresas. Mas, mais que tudo, esse processo de comunicação, como no conto de Asimov, cria os caminhos para a possibilidade de uma consciência artificial. Embora, no meu entender, esse seja apenas um sonho de muitos cientistas e autores, pois nem a própria consciência humana conhecemos bem, e apenas agora começa a ser mais estudada pelos neurocientistas. Me parece mais lógico, dessa forma, considerar que a consciência e a intencionalidade consciente dos atos, serão o grande diferencial que irá nos separar dos robôs. E a transferência da inteligência [9] é um fundamento que poderá reforçar isso cada vez mais. * * * Capítulo 4 Modelo universal de decisão através de robôs As pesquisas e tecnologias de ciências cognitivas e o avanço da tecnologia de machine learning, principalmente na detecção de padrões, representam um grande avanço na direção da inteligência artificial. Entretanto, penso que para criar sistemas inteligentes é necessário criar modelos mais similares aos estados mentais e processo de tomada de decisão humano. Começando pelo modelo racional Irei começar utilizando uma macro arquitetura que criei para a construção de soluções em qualquer nível de problema, através de lógicas de pensamento artificial e estados de percepção das soluções, que é uma espécie de algoritmo universal ou mestre na área de inteligência artificial forte. Essa macro arquitetura, apresentada na figura 4.1, será descrita nesse capítulo e utilizada para formatar as soluções mais complexas envolvendo Robôs Mestres e Robôs Gestores, descritos no capítulo anterior. Minha solução de algoritmo mestre envolve quatro sistemas principais, que descrito a seguir, todos comunicando entre si. A rede de neurônios artificiais Esse é o sistema que denomino de Combinational Brain, e que engloba a principal tecnologia na área de inteligência artificial, que é a que emula nossos neurônios, e que portanto é muito comum a utilização de redes neurais artificiais (RNAs), e suas redes de perceptrons nas mais variadas camadas. E acredito que não há necessidade de reinventar a roda com tecnologias muito diferentes da RNA e seu potencial de aprendizado e treinamento para os mais complexos problemas de reconhecimento de padrões. Portanto as RNAs possuem a vantagem competitiva em relação a outras soluções, por estarem consolidadas no mercado, através de sistemas de deep learning ou aprendizado profundo em diversos cases reais aplicados no mercado atual. Figura 4.1 – Modelo de algoritmo mestre ou universal Nesse ponto você pode estar então perguntando: para que precisamos então de algo a mais que o deep learning para pensar? E essa é a pergunta e resposta chave de minha arquitetura, pois no meu entender, o deep learning não é tão bom em três outras funcionalidades que considero essenciais para a inteligência artificial forte: o processamento de estados mentais, a classificação da qualidade das soluções apresentadas e a organização sistêmica dos estados mentais, incluindo nesse caso as ideias e soluções processadas pelo cérebro artificial, para a tomada de decisões. Resumiria isso tudo em um conceito simples: considero o deep learning mais apropriado para máquinas combinacionais do que máquinas sequenciais. E nosso cérebro, e mente, são essencialmente, no mínimo, uma combinação desses dois tipos de máquina. A rede de estados mentais artificiais Esse é o sistema que denomino de Sequencial Brain, e que engloba uma rede de máquinas de estados, formadas dinamicamente, e com ajustes feitos internamente ou pelos demais sistemas da arquiteturas. A vantagem dessa abordagem é a facilidade de construção de modelos mentais e de teste comparativo deles, no sistema de ranking e rating de decisões, descrito a seguir. A rede de ranking e rating de decisões Esse é o sistema que denomino de Decision Brain, e que engloba todo o processo de registro e análise das possíveis soluções, que o sistema de inteligência artificial forte deverá optar, utilizando métricas específicas para isso, ou seja, um rating inteligente e dinâmico, como acontece no nosso cérebro e mente. Afinal, não tomamos decisões por apenas um rating fixo ou padrão, mas por uma série de fatores, inclusive emocionais. Numa arquitetura assim, é possível inclusive emular as próprias emoções para a formação do rating, se assim for conveniente, criando robôs que decidam também não apenas por aspectos quantitativos, mas também por aspectos qualitativos e, quem sabe no futuro, com um equilíbrio inteligente entre razão e emoção, ou seja, além de um cérebro artificial, um coração artificial também. Mas esse é um assunto para a continuação desse livro e de meus estudos na área. A rede de algoritmos genéticos de treinamento e qualidade Esse é o sistema que denomino de Analysis Brain, e que engloba todo o processo de análise de qualidade da otimização de todo sistema para a solução de problemas, principalmente os inesperados. Dessa forma envolve a análise do treinamento e setup de todos demais sistemas, em forma de uma rede de inteligência de otimização e análise de qualidade dos resultados no mundo real. Faz parte desse sistema a construção de modelos de avaliação de resultados obtidos para as linhas de pensamento propostas, que também denomino de ecossistema de pensamento artificial. Visão geral do ecossistema de pensamento artificial A macro arquitetura pode será utilizada, portanto, como um sistema de sistemas, ou ecossistema, onde todos eles devem comunicar entre si, com realimentação das decisões para avaliação e otimização tanto dos modelos de aprendizado, como das máquinas de estado e ranking de decisões. Não muito diferente do nosso cérebro e mente, mas de forma evidentemente artificial. Outra característica é a abertura do processo de tomada de decisões e linhas de pensamento, que devem sempre estar claras, assim como suas regras de negócio, como o dilema que proponho. Da mesma forma, é importante deixar claro qual é exatamente o problema inesperado, ou os problemas inesperados, e o que se espera do robô em termos de pensamento para a solução deles. Ou seja, também teremos definido para o ajuste dos sistemas quais são os critérios de avaliação e resultados esperados das decisões dos robôs para solução do problema ou dos problemas. Agregando um modelo de inteligência emocional artificial A evolução desse modelo racional para a tomada de decisões e descoberta de linhas de pensamento onde se possa agregar aspectos emocionais deve passar por todos os sistemas da arquitetura, ou seja, desde o cérebro combinacional e sequencial, até os sistemas de tomada e avaliação de decisões. Mas para isso, devemos prever um número maior de entradas baseadas justamente nesse tipo de aspecto emocional, como por exemplo a identificação de mudança de tom de voz, ou até mesmo de latido, se for usado como base o dilema apresentado. Também considerofundamental existirem estados de consciência baseados exclusivamente em emoções, como por exemplo a empolgação e a depressão, ou ainda, a sensação de euforia ou de pânico, e assim por diante. Ou ainda, no caso de percepção de problemas, como acontece com nosso sistema imunológico, onde temos que reagir de forma a curar uma doença ou vírus. Na prática, estaremos imitando a natureza e aproveitando milhares de anos de evolução, e seu aprendizado, para agregar aos robôs, como acontece exatamente com a arquitetura de redes neurais artificiais, que buscam imitar o processo de sinapse no nosso cérebro. Se esse é o melhor caminho ou não, é difícil saber de antemão, mas me parece lógico começar por ele deixando abertas as portas para entrada de outros modelos que não encontramos na natureza, ou pelo menos não foram descobertos. Afinal, não existe nenhum paradigma que impeça que sejam criados modelos próprios e independentes para uso nos robôs, e diferentes da forma que a razão e a emoção funciona nos seres humanos. * * * Capítulo 5 A lei da Transferência de Inteligência As leis essenciais dos robôs são talvez a mais famosa contribuição de Isaac Asimov, o grande autor e escritor de ficção científica, e, acima de tudo, grande visionário da Era dos Robôs. Talvez as ideias de Alan Turing, sobre a capacidade de as máquinas pensarem, tenham inspirado de alguma forma Asimov a pensar em robôs tão inteligentes e humanos, e a criar suas leis essenciais, mas nada superou sua criatividade e originalidade para criar uma obra fantástica. E apesar de serem fruto de uma obra de ficção, as leis possuem uma essência lógica e inteligência evolutiva, que servem como regras para qualquer desenvolvedor sério de robôs, e portanto classifico elas como essenciais. Entretanto, as Leis de Asimov não preenchem a lacuna das leis fundamentais, que devem viabilizar as leis essenciais. Nesse livro, apresento uma primeira lei fundamental para os robôs, por critérios próprios de relevância, e uma visão de futuras leis que irão formalizar as regras fundamentais deles no nosso dia a dia para buscar a ‘convivência’ harmônica entre os homens e suas máquinas inteligentes. A lei da Transferência de Inteligência A primeira lei fundamental dos robôs, ou seja, a mais importante de todas, deve evitar, ou no mínimo dificultar, que os robôs fiquem mais inteligentes que os homens. Essa possibilidade, de robôs mais inteligentes que os seres humanos, conhecida como a Era da Singularidade [10], já foi prevista por vários cientistas, como Vernor Vinge, pioneiro dessa visão. Essa é apenas uma primeira lei fundamental nesse sentido, dentre várias que, acredito, deverão ser formuladas, fora do escopo de leis essenciais, como as Leis de Asimov. Novas leis que busquem a evolução competitiva e justa das pessoas, profissionais, empresas e da própria sociedade, . As leis essenciais de Asimov A lógica principal de Isaac Asimov, ao criar suas leis essenciais para a robótica, era a convivência pacífica entre os seres humanos e robôs, evidentemente que protegendo em primeiro lugar a humanidade e os humanos, seus criadores. Essas leis são apresentadas em vários de seus livros, começando em 1942 na sua quarta história, denominada Runaround, ou Círculo Vicioso, em uma tradução livre para o português. Primeira Lei: um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano venha a sofrer algum mal. Segunda Lei: um robô deve obedecer as ordens que lhe sejam dadas por seres humanos, exceto quando essas ordens contrariarem a Primeira Lei. Terceira Lei: um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira e Segunda Lei. Posteriormente, Asimov apresentou uma quarta lei, que seria na verdade a lei zero, antes das demais. Lei Zero: um robô não pode prejudicar a humanidade, ou, por omissão, permitir que a humanidade sofra algum mal. Sem dúvida, as leis essenciais propostas por Asimov atingem os conflitos mais críticos, ou vitais, do relacionamento entre robôs e humanos. Mas, qual ou quais dessas leis poderiam proteger os seres humanos em outros fatores de conflito de interesses ou competitividade com os robôs, como por exemplo de perderem seus empregos? Talvez, na segunda lei, Asimov tivesse considerado que fosse possível dar esse tipo de ordens ao robô, mas nesse caso essa seria uma lei única e universal, englobando todas as demais, e as outras não teriam sido necessárias, o que invalida essa hipótese. Inteligência aumentada, acelerada e artificial Nessa nova lei, considero a inteligência aumentada, a inteligência acelerada – um outro novo conceito que também estou apresentando nesse livro – e a inteligência artificial, fraca ou forte, como apenas mais uma energia que deve ser gerada pelas máquinas criadas pelos seres humanos em seu próprio benefício. E os robôs são a grande usina de geração dessa energia. A primeira lei fundamental Considero a lei da Transferência de Inteligência como a primeira lei fundamental, pois ela busca responder e atender de forma mais ampla possível, ou seja para todos, a pergunta: Por que criamos robôs? Talvez alguns imaginem que a automação de nossas tarefas ou processos, nas empresas, seja o principal motivo de criarmos robôs. Ou ainda que eles sejam criados para as tarefas menos nobres ou de maior risco. Entretanto, minha visão é que o principal motivo seja o de contribuir para nossa evolução. Como por exemplo o desafio da inteligência artificial forte. De criarmos máquinas que pensam, como nós, como pensou Alan Turing um dia. E, que sua inteligência, e pensamentos, retornem para seus criadores. E, se o principal motivo é contribuir com nossa evolução, é lógico também pensarmos em uma primeira lei que defina diretrizes para a transferência de inteligência para os seres humanos e toda a sociedade. * * * Capítulo 6 Impactos na criatividade artificial e inovação Assim como a inteligência artificial não deixará de evoluir, nem a transferência de inteligência, muito menos a própria consciência humana e artificial, que são fundamentais na Equação da Sabedoria. Homens e robôs diante da inovação Talvez o maior paradigma na área de inovação nas empresas seja a máxima de que ela é o processo de transformar uma ideia criativa em um produto ou serviço que gere valor. É evidente que criatividade e inovação, são, por definição, coisas diferentes. Mas essa diferença não pode se tornar um paradigma que nos faça ficar míopes ao que realmente é necessário para inovar. E, na minha opinião, essa miopia é generalizada, pois os processos de inovação, na maioria das empresas, buscam encontrar formas de dividir o problema de uma forma errada. Acredito que se desejamos inovar de fato, dificilmente isso será feito sem a real valorização do criador das ideias, ou do que chamo de origem criativa, e, principalmente, sua liderança em todo processo, o que raramente acontece. E isso acontece porque a inovação, quase sempre, é caótica, ou, no melhor dos casos, caórdica. Mas, apesar disso, existem várias soluções no mercado que buscam encontrar uma ordem para a inovação. Nenhuma crítica a elas, apenas quero reforçar como isso ajuda a formar o paradigma descrito anteriormente, onde todos perdemos e devemos buscar formas de evoluir. A realidade da inovação nas empresas Em primeiro lugar, acredito que nosso foco deva ser o resultado da inovação, ou seu retorno aos stakeholders. E, se queremos de fato o retorno, ou ROI - Return on Investment - para inovação, não podemos esquecer ou deixar de lado o alicerce da inovação, que a meu ver está no fato de que as ideias não são estáticas, mas sim evolutivas. Principalmente as que conduzem à inovação de ruptura. Ora, se as ideias evoluem, temos que ter a inteligência evolutiva de valorizar não apenas elas, mas seus criadores,da forma mais completa possível, que é a de participação e liderança nesse processo. Antes que você diga que sua empresa já faz isso, por favor responda essas duas perguntas: • A sua empresa utiliza apenas as ideias produzidas internamente ou ela realiza movimentos de busca de ideias através de profissionais de fora da empresa? • Caso ela utilize ideias de profissionais de fora da empresa, ela emprega e integra esses profissionais às equipes internas e permite sua liderança nos processos de inovação? Provavelmente a maior parte das respostas será de pelo menos um não para as duas perguntas. Na verdade, da minha experiência de mercado na área de inovação, mais de 90% das empresas apresentam pelo menos uma resposta não para as perguntas anteriores. E a consequência de não termos a origem das ideias, que são os profissionais criativos que a geram, pelos mais variados motivos, evoluindo juntamente com seus insights dentro das empresas, é a desconexão e perda de foco da inovação. Essa é a realidade da maior parte das empresas, não só no Brasil, mas em todo mundo, pois o paradigma da inovação não é regional. Aliás, acredito que nosso país tem grandes chances de liderar uma mudança que torne a inovação realmente um processo eficaz nas empresas, ainda mais nesse momento que buscamos sair de uma recessão, tecnicamente comprovada pelos melhores economistas. A evolução da inovação Minha visão de evolução da inovação passa por dois caminhos complexos e fundamentais: busca contínua do criador das ideias (seja onde ele estiver) e forte conexão e integração desse criador a todo processo. Aliás, não estou criando ou inventando nada, pois, se olharmos para trás os cases de sucesso de inovação, dificilmente eles são gerados sem esses dois caminhos. O problema é que o paradigma de separação de conceitos de inovação e criatividade nos faz não dar a correta relevância ao criador das ideias. E nesse sentido, talvez a maior ilusão que as empresas possuem é a de que as ideias possam ser criadas unicamente pelas equipes internas, ou ainda, que se possa formar elas continuamente apenas pelo treinamento constante. Evidentemente que todas empresas possuem seus talentos criativos, mas se desejamos ROI de verdade temos que estar abertos para contratar outros talentos externos, reforçando a ‘prata da casa’. Mais ainda, é muito provável que as ideias que irão conduzir à inovação de ruptura na sua empresa estejam fora delas, sem paradigmas, em alguma garagem ou sala de pequena empresa que você desconhece. E se isso é verdade, o mais inteligente em termos evolutivos, a meu ver, é ter uma sistemática de busca constante desses talentos para agregar ao processo de inovação interna, de forma tão forte que permita que esses sejam os futuros CEOs de sua empresa. Sei que isso vai contra vários conceitos sobre criatividade e inovação e o que pregam a maior parte dos profissionais da área, que buscam resultados mágicos partindo unicamente dos processos, sem o real valor dos autores das ideias relevantes para inovação, seja onde eles estiverem. Mas, a meu ver, é necessário evoluir esses conceitos, se temos real foco em ROI. A prática da inovação no tempo ao quadrado Para melhor entendimento do que quero dizer, e de como é possível quebrar paradigmas, posso citar dois exemplos relevantes: o da Apple e o do time do Barcelona. No primeiro caso, mais conhecido, está no reconhecimento e busca dos stakeholders da Apple da reintegração de Steve Jobs ao processo de criação de novos produtos, justamente quanto a empresa tinha perdido seu potencial de inovação, com fortes impactos em seu ROI. Aliás, infelizmente, com a perda do seu principal líder, ela parece voltar a estar no mesmo estado anterior. E, acredito que o caminho para evitar isso, seja justamente quebrar o paradigma desse post. No segundo caso, menos conhecido, está a constante busca dos melhores jogadores de futebol do mundo pelo time do Barcelona. Seus stakeholders sabem que para manter um time de alta competitividade, e ROI, precisam dos gênios inovadores do campo, como um Neymar ou Messi. Para isso, adotam um sistema de ‘peneira’ nas principais cidades do mundo onde é possível encontrar com maiores chances esses talentos, integrando eles desde muito jovens às suas equipes internas, para só revelarem seus talentos na hora certa. São exemplos reais de que, apesar de criatividade não ser o mesmo que inovação, não existe ROI e inovação de ruptura sem a profunda valorização da criatividade e de seus autores, e de sua liderança permanente no processo, afinal, se eles são capazes de criar o arquétipo, ou as ideias originais, muito mais serão de atualizar elas e transformar em novas inovações. O ciclo sem fim de criatividade, inovação e evolução O grande paradoxo da Era dos Robôs e uma possível futura Era da Criatividade é que ela ajudará a criar robôs ainda mais inteligentes, criativos e também inovadores. Ou seja, o RPA é apenas o começo de um ciclos sem fim de criatividade, inovação e evolução, de humanos e robôs. * * * Capítulo 7 O futuro do Big Brain Acredito que todos processos de inteligência da evolução sejam um campo fértil para uma ciência, ou seja, formatarmos a Inteligência Evolutiva [8] como uma nova ciência em busca de encontrar as lógicas e múltiplas inteligências, tanto de evolução como extinção, que possam impactar os seres vivos, os robôs e os ecossistemas. Para isso, considero fundamental uma nova forma de análise do tempo em duas ou três dimensões novas, descritas de forma resumida a seguir: O tempo ao quadrado (T²): consiste de minha proposta de uma nova dimensão de tempo, para um novo tempo onde homens e robôs executam de forma conjunta ou complementar os mais simples e complexos processos, em que se possa estratificar a realidade exata de cada dimensão, com visibilidade precisa de cada um dos atores envolvidos. O tempo ao cubo (T³): consiste da evolução de minha proposta da evolução do tempo ao quadrado, que pode ser considerado como uma terceira nova dimensão relacionada ao tempo de evolução dos sistema e ecossistemas. Considero o tratamento de dimensões de tempo como uma forma de visibilidade da Inteligência Evolutiva. Em tese, em um gráfico onde só vemos o tempo, em todas dimensões (T² ou T³), encontramos uma comparação direta de evolução de seres vivos (humanos, principalmente), robôs e ecossistemas. Ou seja, a análise do tempo em duas dimensões – tempo ao quadrado – ou em três dimensões – tempo ao cubo – são uma forma de rapidamente vermos e medirmos os ciclos de vida de todos atores e objetos dessa nova ciência, buscando formas de perpetuar a evolução e evitar a extinção, de acordo com a primeira lei da Inteligência Evolutiva. A revolução dos robôs exige também uma revolução na administração dos processos, para isso, precisamos de visibilidade dos processos automáticos e discricionários, de robôs e humano, pois irá impacta cada vez mais os principais atores do mercado, ou seja os consumidores, negócios, empresas, governos, redes sociais, etc. Mas, acima de tudo, impactará cada vez mais a forma de medirmos o tempo. Dessa forma, considero relevante pensarmos em uma abordagem diferente de medição de tempo, que leve em conta a dimensão do tempo de máquina de forma independente da dimensão do tempo humano, e todos processos associados. Para isso, proponho que o tempo humano de execução dos processos seja separado do tempo dos robôs, de forma a melhor identificarmos os pontos críticos e as oportunidades de cada um dos atores e suas dimensões. Como em nosso cérebro, onde existe uma separação do pensamento consciente e inconsciente, com diferentes tempos de processamento e relevância em cada um deles. Como na estrutura física de robôs e humanos, onde existe uma separação e diferença entre a máquina de silício, sem consciência, e o ser biológico consciente. Como nas maisvariadas áreas do conhecimento onde temos o automatismo da solução de problemas a partir de um aprendizado passado, e os novos problemas inesperados, que necessitam de uma nova forma de pensar. E assim por diante. Uma nova dimensão de tempo, para um novo tempo onde homens e robôs executam de forma conjunta ou complementar os mais simples e complexos processos, em que se possa estratificar a realidade exata de cada dimensão, com visibilidade precisa de cada um dos atores envolvidos. Na figura 7.1, apresento um primeiro cenário com essas duas dimensões, onde a inexistência de robôs torna o tempo dos processos totalmente dependente do tempo dos humanos. No eixo horizontal, temos a dimensão do tempo dos humanos, que envolvem toda e qualquer atividade dependente do esforço discricionário do ser humano, e no eixo vertical, temos a dimensão do tempo dos robôs e todas as demais atividades sistemáticas ou automatizadas. No exemplo da figura 7.1, temos um cenário sem utilização de robôs, onde os processos são medidos (Th) diretamente pelos tempos humanos, entre um início e fim no eixo horizontal. A medida que inserimos um primeiro robô, para auxiliar na execução dos processos, como mostra a figura 7.2, passamos a traçar e utilizar o tempo dos robôs (Tr). E o primeiro impacto esperado, é diminuir o tempo entre o início e o fim dos processos, ou seja, no eixo Th. Evidentemente que para diminuir esse tempo no eixo Th precisamos de robôs que realmente agreguem valor com sua tecnologia para isso, e dentro dos objetivos traçados pelos arquitetos do sistema, uma vez que pode acontecer de a redução do tempo do processo não ser a necessidade mais relevante, mas sim a melhoria da qualidade intrínseca do processo em si. Figura 7.1 - T² em um cenário sem utilização de robôs Seja como for, é racional esperar que de alguma forma a inserção dos robôs, e o tempo consumido por eles na dimensão Tr, ou tempo dos robôs, gere uma melhoria nos processos, seja de redução de tempo, seja de aumento de sua qualidade intrínseca. É o que acontece, por exemplo, no caso de adoção pelas empresas de tecnologias de RPA ou Robotic Process Automation, como na figura 7.3 onde temos ao invés de Th o Tp (tempo dos processos), com o automatismo dos processos, e de SPA ou Smart Process Automation, onde a camada de inteligência estratégica de ajustes dos sistemas de automação passa a ser feita por softwares robôs com inteligência artificial. Figura 7.2 - T² em um cenário inicial de utilização de robôs Ou em sistemas de leilão automático nos sites, onde os robôs decidem pelos conteúdos de anúncios e momentos de maior oportunidade. Ou ainda em robôs de operação de alta frequência no mercado de capitais, onde os sistemas de inteligência buscam, além de reduzir ao máximo os tempos dos processos, a máxima qualidade em termos de retorno de investimento. E a utilização cada vez maior de robôs, poderá conduzir a cenários como os da figura 7.3 e 7.4. Nessa evolução do uso de robôs, até um cenário de forte utilização, vemos cada vez mais a relevância de separarmos as dimensões do tempo das atividades automáticas e discricionárias, ou seja, de robô e homem, como por exemplo a redução dos próprios tempos da dimensão humana e de entrega e execução dos processo (Tp). Figura 7.3 - T² em um cenário de maior utilização de robôs O mesmo vale, portanto, se ao invés de processos em Tp, considerarmos o tempo dos projetos, pois a única diferença é que eles não são repetitivos, embora internamente possam se valer dos mesmos procedimentos de medições de processos. Mas, evidentemente, as etapas de automação de projetos possuem menor maturidade que as etapas de automação dos processos, que tendem a utilizar tarefas cada vez mais repetitivas, o que irá impactar na distribuição do tempo nas duas dimensões propostas. E, na prática, a dimensão horizontal, que envolve o tempo humano ou discricionário, só poderá ser reduzido pela especialização humana ou pela automação, com ou sem inteligência artificial. Figura 7.4 - T² em um cenário de forte utilização de robôs Evidentemente, como acontece nos processos que envolvem qualidade intrínseca, tempo de entrega e segurança, quanto mais conseguirmos passar o tempo do eixo Tp para o eixo Tr, maior será a qualidade final, pela abstração das atividades discricionárias, manuais ou artesanais. E isso acontece justamente porque a escala de tempos é diferente, ou seja, os robôs conseguem executar tarefas com um tempo bem menor que as tarefas originalmente feitas apenas por humanos. Para entregar melhores produtos para seus clientes, e sobreviverem à rápida criação de novos produtos que os robôs estarão ajudando cada vez mais, as empresas necessitam dimensionar corretamente os tempos dos processos, principalmente quanto aos atributos discricionários, que podem consumir grande parte de seu lucro. Figura 7.5 - T² em diferentes cenários de Projetos x Processos e RPA x SPA Na figura 7.5 é possível ver uma evolução esperada no tempo ao quadrado ( T²) em diferentes cenários de Projetos x Processos e RPA x SPA, onde o tempo negativo representa uma tendência à máxima automação, e o tempo positivo uma tendência à mínima automação. Dessa forma, considero que a visibilidade do tempo ao quadrado é essencial para as empresas, por permitir a rápida identificação dos problemas, de suas causas e de suas soluções, principalmente no que se refere à automação de fato, tanto de elementos dos processos como de elementos dos projetos. Entretanto, a realidade de mercado é que, o tempo medido em uma única dimensão, não estratifica de forma clara os problemas e benefícios dos processos feitos de forma manual ou artesanal, ou ainda das decisões estratégicas, que ainda pertencem em grande parte ao eixo horizontas do tempo ao quadrado. Migrando habilidades para regras e automação Através da medição da repetibilidade dos processos implantados através de robôs, podemos identificar os impactos das regras e automação, nos produtos, e portanto nos clientes finais. Com isso, espera-se uma evolução constante da produtividade, que, pelo menos em tese, não terá mais barreiras como hoje para continuar aumentando passo a passo. Uma nova forma de medir a produtividade E se dependemos apenas de uma dimensão para medir a produtividade, estamos sujeitos a falhas e erros de avaliação. Mas se temos dois eixos, podemos medir a produtividade de robôs e colaboradores, da máquina e do homem. E talvez esteja ai, na melhor visibilidade da produtividade, o grande impacto do tempo ao quadrado nas empresas. Principalmente pelo fato de podermos comparar de forma mais clara o impacto do tempo nas atividades do dia a dia de processos e projetos. A ideia central do tempo ao quadrado está, portanto, alinhada com a medição de produtividade, uma vez que separamos em termos visuais e racionais o tempo em duas dimensões independentes, justamente a de atuação dos robôs e a dos homens. Latência e as diferentes escalas de tempo Uma das grandes vantagens competitivas de criar uma dimensão de tempo específica para os robôs, como proposto, é trabalhar com diferentes escalas de tempo. Tipicamente, as escalas devem chegar ao limite de divisão exatamente dentro da capacidade de produtividade humana sem os robôs e da latência dos sistemas e ecossistemas envolvidos. Por exemplo: Escalas de dimensão dos humanos: minutos, horas, dias, semanas, etc. Escalas de dimensão dos robôs: minutos, segundos, milissegundos, nano segundos, etc. E, na prática, cada empresa deverá dimensionar corretamente seus processos com escalas compatíveis com o estado da arte – ou seja, as mais novas tecnologias de mercado - de seus robôs, e toda a sua tecnologia de fato sendo utilizada para a automação de processos e decisão. Por exemplo, se a empresa é um hospital, poderá até trabalhar com escalasmaiores na dimensão dos robôs, inclusive acima do minuto, se o foco central for a segurança do paciente e existirem limitadores de latência para o processo de tomada de decisão em uma camada SPA. * * * Referências [1] Figurelli, R. - Tecnologia da Inteligência: a nova TI para a Era do Robôs [2] Laney, D. - Deja VVVu: Others Claiming Gartner’s Construct for Big Data http://blogs.gartner.com/doug-laney/deja-vvvue-others-claiming-gartners-volume- velocity-variety-construct-for-big-data/ [3] Taurion, C. - O caos conceitual e os 5 Vs do Big Data http://cio.com.br/opiniao/2012/05/11/o-caos-conceitual-e-os-5-vs-do-big-data/ [4] Figurelli, R. - A Equação da Sabedoria: buscando medir a realidade da inteligência artificial e seu real impacto na empregabilidade [5] Figurelli, R. - Inteligência Artificial Forte: Como fazer os robôs pensarem [6] Figurelli, R. - Inteligência Emocional Artificial: Como e por que fazer os robôs decidirem também com emoção [7] Figurelli, R. - Criatividade Artificial: A busca do algoritmo da criatividade [8] Figurelli, R. - Inteligência Evolutiva: A ciência da evolução e as novas dimensões do tempo [9] Figurelli, R. - Transferência de Inteligência: A primeira lei fundamental dos robôs [10] Kurzweil, R. - The Singularity is Near 2016-12-21T13:45:57+0000 Preflight Ticket Signature
Compartilhar