Prévia do material em texto
24 Fabio G. Cozman | Ary Plonski| Hugo Neri tística para aprendizado e teoria de utilidade e de controle para tomada de decisão. Ou seja, ferramentas consagradas em outras áreas foram incorporadas a IA, dando maior solidez à essa última. Provavelmente a primeira edição do livro de Russell e Norvig é o texto que melhor captura o progresso em curso na década de 1990. Porém, na prática, poucas técnicas funcionavam de forma robusta e dentro daquilo que se esperaria de uma verdadeira In- teligência Artificial. Alguns programas passavam a ilusão de com- preender linguagem natural, mas o faziam em cenários limitados; outros programas conseguiam planejar sequências de atividades, mas apenas a partir de modelos muito bem construídos. O sen- timento geral da área era de relativa frustração: onde estavam, afinal, os maravilhosos computadores pensantes que serviriam a nós, mestres humanos? Gradualmente, esse quadro se modificou no novo milênio. Houve, em primeiro lugar, uma explosão de poder computacional, não apenas embutido em computadores pessoais, mas também em câmeras e telefones de todos os tipos, veículos, eletrodomés- ticos. Em segundo lugar, houve uma explosão na quantidade de dados coletados de equipamentos e pessoas. Além disso, o au- mento na coleta de dados foi acompanhado em uma maior dis- ponibilidade de dados através de redes de computadores. A “mi- neração de dados” se tornou popular, bem como tecnologias de “inteligência empresarial” que se baseiam na análise de grandes quantidades de dados (em inglês, business intelligence). Por volta de 2010, a área estava pronta para resolver problemas práticos reais em escala nunca vista. O exemplo talvez mais importante daquele momento tenha sido o programa Watson, desenvolvido pela IBM, vencedor do jogo Jeopardy! contra campeões humanos em 2011. Esse programa apresentava considerável habilidade de compreender linguagem natural e raciocinar a partir de fatos e regras armazenados em grandes bases de conhecimento.