Prévia do material em texto
INTELIGÊNCIA ARTIFICIAL Conceito rigoroso Em 1959, vemos pela primeira vez o termo machine learning (Aprendizado de máquina), descrevendo um sistema que dá aos computadores a habilidade de aprender alguma função sem serem programados diretamente pra isso. Basicamente permite que a máquina aprenda a executar uma tarefa automaticamente. Limitações Década de 80: o Japão fez um alto investimento que acelerou alguns setores, porém não obteve grandes avanços com a inteligência artificial devido a adoção de uma linguagem de programação sem grande adesão chamada Prolog e ideias maiores que o poder das CPUs na época. Fica claro que a linguagem de programação era um dos principais obstáculos, ou até o principal, já que o desenvolvimento do hardware era uma questão de tempo. Na internet Na segunda metade dos anos 90 foi marcada pela explosão da internet comercial. As redes se aproveitaram da IA pra desenvolver sistemas de navegação e também de indexação. Programas que vasculhavam a rede automaticamente e classificavam resultados, como o protótipo do Google, nasceram nesse período. Nos automóveis Desde cerca de 2005, a inteligência artificial também é estudada pra aplicação em carros autônomos. O homem perder para a máquina Em 1997, O campeão soviético Garry Kasparov foi derrotado em uma das rodadas pelo computador Deep Blue, da IBM, em partidas que repercutiram ao redor do mundo. O Deep Blue adotava um método de cálculo via força bruta que analisava possibilidades, previa respostas e sugeria o melhor movimento. Também em 2011, a IBM voltou a ganhar as manchetes com o Watson, um supercomputador e plataforma de inteligência artificial. Pra mostrar todo o seu potencial, ele venceu os melhores jogadores no game show televisivo de adivinhação Jeopardy. A partir daí, ele começou a ser aplicado em vários campos, como saúde, direito, reconhecimento de imagem e muito mais. Já em 2016, a AlphaGo, desenvolvida pela Deepmind, virou mestre no jogo de tabuleiro Go e venceu o campeão mundial da categoria em uma série de vitórias bem mais impressionantes que as no xadrez de anos atrás, porque o algoritmo aprendeu todas as regras e estratégias do jogo observando outras partidas e depois jogando contra si próprio. Interações com imagens Em 2012, a Google deu mais um passo em seus sistemas de IA. Consolidando tecnologias em desenvolvimento desde 2006 em deep learning, ela conseguiu treinar um algoritmo para... reconhecer gatinhos em vídeos do YouTube. O deep learning pode ser integrado com outro processo: a visão computacional, que é permitir que um sistema lide com obtenção, compreensão e análise de imagens. A Affectiva, por exemplo, empregou isso em reconhecimento de rostos pra reconhecer emoções no rosto humano. Interações com humanos Em 1964, teve o primeiro chatbot do mundo, ELIZA, que conversava de forma automática imitando uma psicanalista, usando respostas baseadas em palavras-chave e estrutura sintática. A partir de 2008, o processamento de linguagem natural voltou com tudo. A Google lançou o recurso de reconhecimento de voz no iPhone pra pesquisas, e isso mostrou a integração da IA com todo o ecossistema da empresa. Em 2011, a própria Apple lançou uma assistente virtual, a Siri, que responde perguntas, pesquisa por você e até conta piadas. Ela é seguida pela Alexa, da Amazon, que explodiu em popularidade, a Cortana, da Microsoft, e o Google Assistente. Falando em presente, nos últimos anos foram várias as conquistas de inteligências artificiais no ambiente humano. Em 2014, um chatbot chamado Eugene Goostman conseguiu vencer o teste de Turing e convenceu jurados durante uma conversa por escrito de que ele, um programa, era na verdade um humano. Atualmente, temos: o Kirin 980 da Huawei e até nas respostas automáticas sugeridas quando você escreve um email. O Google Duplex, que é uma inteligência artificial que conversa por telefone e agenda consultar ou reserva mesas em restaurantes LIMITAÇÕES – Linguagem de programação A Inteligência Artificial (AI) já invadiu o mundo corporativo. Se antes era uma tendência, agora já é realidade — com expectativa de ter um uso cada vez mais amplo nos próximos anos. Por isso, é fundamental que os gestores e profissionais de TI conheçam as linguagens de programação mais comuns para esse contexto. As primeiras a serem adotadas foram o Prolog e o Lisp, que eram utilizadas principalmente para construir sistemas especialistas. No entanto, essas opções já estão ultrapassadas. Agora, a tendência é a de implementação da AI em ambientes comerciais, que exigem uma interface de manuseio simples e amigável. 1. Python É uma das opções mais comuns quando o assunto é AI. O motivo? A simplicidade de uso dessa linguagem de programação. Outro benefício verificado por programadores é a criação de protótipos. Esse processo é muito rápido, inclusive porque as ideias são validadas com apenas 30 ou 40 linhas de código. É importante destacar que o Python está no topo quando o assunto é AI. É nessa linguagem que o programador encontra boa parte da aprendizagem profunda e das estruturas do Machine Learning. Por isso, torna-se indispensável até para empresas reconhecidas, como Nasa, Google, IBM e Embratel. 2. Java Comum em diferentes trabalhos, o Java também é usado na AI. Ele é indicado para projetos de larga escala, porque oferece um suporte adequado. Além disso, facilita a interação dos usuários, a visualização e a depuração dos dados. 3. R Apesar de menos falada, a linguagem R é a preferida dos cientistas de dados. Sua abordagem é diferente e centrada no dataframe, o que faz os programadores terem certa dificuldade. No entanto, ela é uma alternativa excelente para trabalhar a AI. 4. C/C++ É uma boa opção para desenvolver um aplicativo em AI. Ela nem sempre é escolhida, mas se torna uma alternativa interessante quando o ambiente é integrado e não consegue lidar com a sobrecarga do Java Virtual Machine ou do interpretador Python. 5. JavaScript O JavaScript é uma boa escolha, mas apresenta algumas limitações em relação às bibliotecas. Ele não oferece o mesmo acesso no que se refere ao Aprendizado de Máquina, mas os desenvolvedores adicionam redes neurais nas páginas da Internet com facilidade. LIMITAÇÕES – Hardware Como mencionado anteriormente, realmente existiu uma limitação de equipamentos, mas isso ficou pra trás, temos aqui exemplos de diferentes configurações em datas distintas: