Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 Programa de Pós-Graduação em Ciência da Computação UERN/UFERSA Agentes Inteligentes Prof. Marcelino Pereira 2 Tópicos Agentes e Ambientes Conceito de Racionalidade Natureza dos Ambientes Estrutura de Agentes 3 Agentes e Ambientes Agente Aquele considerado capaz de perceber seu ambiente por meio de sensores e de agir sobre esse ambiente por intermédio de atuadores Função de Agente Mapeia qualquer sequência de percepções específicas para uma ação Descrição matemática abstrata Programa de Agente Implementação concreta, relacionada à arquitetura do agente 4 Sophie 5 Agentes e Ambientes 6 Agentes e Ambientes SEQÜÊNCIA DE PERCEPÇÕES AÇÃO [A, Limpo] Direita [A, Sujo] Aspirar [B, Limpo] Esquerda [B, Sujo] Aspirar [A, Limpo], [A, Limpo] Direita [A, Limpo], [A, Sujo] Aspirar . . . . . . [A, Limpo], [A, Limpo] , [A, Limpo] Direita [A, Limpo], [A, Limpo] , [A, Sujo] Aspirar 7 Conceito de Racionalidade Agente racional Aquele que faz tudo certo Ação certa é aquela que fará o agente obter maior sucesso Método para medir o sucesso Medida de desempenho Critério de sucesso 8 Conceito de Racionalidade Racionalidade depende de: Medida de desempenho que define o critério de sucesso O conhecimento anterior que o agente tem do ambiente Ações que o agente pode executar Seqüência de percepções do agente até o momento 9 Conceito de Racionalidade Agente racional Para cada seqüência de percepções possível, um agente racional deve selecionar uma ação que se espera venha a maximizar sua medida de desempenho, dada a evidência fornecida pela seqüência de percepções e por qualquer conhecimento interno do agente. 10 Conceito de Racionalidade Onisciência Um agente onisciente sabe o resultado real de suas ações e pode agir de acordo com ele Onisciência nem sempre é possível aos agentes Racionalidade não é o mesmo que perfeição Coleta de informações Realização de ações com a finalidade de modificar percepções futuras Aprendizagem À medida que o agente ganha experiência, ele modifica e amplia o conhecimento anterior do ambiente 11 Conceito de Racionalidade Autonomia O agente aprende o que puder para compensar um conhecimento prévio parcial ou incorreto. 12 Natureza dos Ambientes Ambientes de tarefas Problemas para os quais os agentes racionais são as soluções Medida de desempenho Ambiente Atuadores Sensores Primeiro passo no projeto de um agente Especificar o ambiente de tarefa da forma mais completa possível (PEAS) 13 Natureza dos Ambientes Exemplo: motorista de táxi Medidas de desempenho Chegar ao destino correto Minimizar o consumo de combustível e desgaste Minimizar o tempo e/ou custo da viagem Minimizar infrações de trânsito e perturbações Maximizar a segurança e o conforto dos passageiros Maximizar os lucros Alguns objetivos são conflitantes Neste caso, serão estabelecidos compromissos 14 Natureza dos Ambientes Exemplo: motorista de táxi Ambiente Diferentes tipos de ruas, avenidas e estradas Tráfego, pedestre, animais, operários, policiamento, buracos Passageiros potenciais e reais Condições metereológicas Quanto mais restrito o ambiente, mais fácil projetar o agente 15 Natureza dos Ambientes Exemplo: motorista de táxi Atuadores Acelerador, câmbio, direção, freio Meios de comunicação com passageiros e outros motoristas Sensores Localização, velocidade, noção de elementos na estrada Dispositivos para entrada de informações 16 Natureza dos Ambientes 17 Natureza dos Ambientes Agentes Robôs Industriais Agentes de software (softbots) Ambientes ricos e ilimitados Agente para pilotar um simulador de vôo Ambiente detalhado e complexo Agente deve escolher uma dentre várias ações em tempo real Agente vasculhador de notícias na web Processamento de linguagem natural Mudar planos dinamicamente Internet: muitos agentes artificiais 18 Relay 19 Relay 20 Natureza dos Ambientes Propriedades de ambientes de tarefas Completamente observável Os sensores detectam todos os aspectos que são relevantes para a escolha da ação A relevância depende da medida de desempenho Parcialmente observável Ruído, imprecisão/limitação dos sensores Partes do estado estão ausentes nos dados do sensor 21 Natureza dos Ambientes Propriedades de ambientes de tarefas Determinístico O próximo estado do ambiente é completamente determinado pelo estado atual e pela ação executada pelo agente Estocástico Caso contrário Se o ambiente é determinístico exceto pelas ações de outros agentes, dizemos que o ambiente é estratégico 22 Natureza dos Ambientes Propriedades de ambientes de tarefas Episódico A experiência do agente é dividida em episódios atômicos O episódio seguinte não depende das ações executadas em episódios anteriores Ex.: localização de peças defeituosas Seqüencial A decisão atual pode afetar decisões futuras Ex: xadrez, táxi Ambientes episódicos são mais simples O agente não precisa pensar à frente 23 Natureza dos Ambientes Propriedades de ambientes de tarefas Dinâmico O ambiente pode alterar-se enquanto o agente está deliberando Estático Caso contrário O agente não precisa continuar a observar o mundo enquanto está decidindo Não precisa se preocupar com o passar do tempo –p. cruzadas Semidinâmico O ambiente não muda com a passagem do tempo, mas o nível de desempenho do agente se altera (jogo de xadrez) 24 Natureza dos Ambientes Propriedades de ambientes de tarefas Estado do ambiente, modo como o tempo é tratado, percepções e ações do agente Discreto Xadrez: estados, percepções e ações discretas Contínuo Táxi: estado contínuo, ações e tempo contínuo Intervalo de valores contínuos ao longo do tempo 25 Natureza dos Ambientes Propriedades de ambientes de tarefas Agente único Palavras cruzadas Multiagente Xadrez Competitivo Maximizar sua própria medida de desempenho Minimizar a do outro Cooperativo Maximizar a medida de desempenho de todos os agentes 26 Exemplos de Ambientes 27 Estrutura de Agentes Comportamento Ação executada após qualquer seqüência de percepções específica Função de agente Mapeia percepções em ações Programa de agente Implementa a função de agente Arquitetura Dispositivo de computação com sensores e atuadores AGENTE = arquitetura + programa 28 Programas de Agentes Recebem a percepção e retornam uma ação Memorização de percepções Caso as ações do agente dependam da seqüência de percepções inteira Função de agente representada por tabela A tabela deve conter a ação apropriada para todas as seqüências de percepções possíveis Para muitos casos, a tabela seria intratável 29 Agentes e Ambientes SEQÜÊNCIA DE PERCEPÇÕES AÇÃO [A, Limpo] Direita [A, Sujo] Aspirar [B, Limpo] Esquerda [B, Sujo] Aspirar [A, Limpo], [A, Limpo] Direita [A, Limpo], [A, Sujo] Aspirar . . . . . . [A, Limpo], [A, Limpo] , [A, Limpo] Direita [A, Limpo], [A, Limpo] , [A, Sujo] Aspirar 30 Programas de Agentes Desafio fundamental da IA Descobrir como escrever programas que produzam um comportamento racional a partir de código pequeno (Ex.: √) 31 Programas de Agentes Quatro tipos básicos de programas de agentes Agentes reativos simples Agentes reativosbaseados em modelos Agentes baseados em objetivos Agentes baseados na utilidade Agentes com aprendizado Baseados nos tipos básicos 32 Agentes Reativos Simples Ações Selecionadas com base na percepção atual Ignoram o histórico de percepções Exemplo 1: aspirador A decisão baseia-se apenas na posição atual e no fato desta estar suja ou não Exemplo 2: freio automático Regra condição-ação ou regra de produção se carro-da-frente-está-freando então começar-a-frear 33 Agentes Reativos Simples 34 Agentes Reativos Simples Inteligência muito limitada Ambiente tem que ser completamente observável INTERPRETAR-ENTRADA Gera descrição do estado atual da percepção REGRA-CORRESPONDENTE Retorna a primeira regra do conjunto que corresponde à descrição de estado fornecida 35 Agentes Reativos Simples Loops infinitos Agentes reativos simples operando em ambientes parcialmente observáveis Opção Ações aleatórias Inclusive em ambientes multiagentes 36 Agentes Reativos Baseados em Modelos Lidando com observação parcial Controlar a parte do mundo que o agente não pode ver agora Estado interno Depende do histórico de percepções Reflete alguns dos aspectos não observáveis Exemplo: trocar de pista (taxi) O agente precisa controlar onde os outros carros estão se não puder vê-los todos de uma vez Atualização de informações internas de estados à medida que o tempo passa Como o mundo evolui independentemente do agente Como as ações do próprio agente afetam o mundo “Como o mundo funciona” Modelo do mundo O agente controla o estado atual do mundo através de um modelo interno 37 Agentes Reativos Baseados em Modelos 38 Agentes Reativos Baseados em Modelos 39 Agentes Baseados em Objetivos Objetivos Situações desejáveis Ex.: chegar a um destino Podem ser combinados com informações sobre os resultados de ações possíveis A fim de escolher ações que alcancem os objetivos Ação Única - quando a satisfação do objetivo resulta de imediato da ação Várias ações – quando o agente tiver de considerar longas seqüências de ações até encontrar um meio de atingir o objetivo (busca e planejamento) 40 Agentes Baseados em Objetivos Envolve tomadas de decisão “O que acontecerá se eu fizer isso e aquilo?” Ex.: frear o carro – objetivo: não atingir outros O agente é mais flexível O conhecimento que apóia suas decisões é representado de maneira explícita e pode ser modificado Atualização de conhecimento Alteração de comportamentos relevantes para atender às novas condições Ex.: frear o carro sob chuva 41 Agentes Baseados em Objetivos Controla o estado do mundo, bem como um conjunto de objetivos que está tentando atingir, e escolhe uma ação que (no final) levará à realização de seus objetivos. 42 Agentes Baseados na Utilidade Seqüências de ações Muitas delas permitirão atingir o objetivo Algumas são mais rápidas, mais seguras, mais confiáveis, mais econômicas Medidas de desempenho permitem comparar opções Utilidade Se um estado for preferível a outro, ele terá maior utilidade para o agente Função de utilidade Mapeia um estado (seqüência de estados) em um número real Descreve o grau de “felicidade” associado 43 Agentes Baseados na Utilidade Função de utilidade Mapeia um estado para um grau de utilidade Permite decisões racionais Objetivos contraditórios (ex: velocidade e segurança) Especifica o compromisso apropriado Vários objetivos desejáveis mas nenhum deles que possa ser atingido com certeza A função de utilidade fornece meios pelo qual a probabilidade de sucesso pode ser ponderada em relação à importância dos objetivos O agente tenta maximizar o valor esperado da fç. utilidade 44 Agentes Baseados na Utilidade 45 Agentes com Agentes com AprendizagemAprendizagem 46 Agentes com Aprendizagem Permite ao agente operar em ambientes inicialmente desconhecidos e se tornar mais competente do que seu conhecimento inicial poderia permitir 47 Agentes com Aprendizagem Componentes conceituais Elemento de aprendizado Responsável pela execução de aperfeiçoamentos Elemento de desempenho Coleção de conhecimentos e procedimentos p/ selecionar ações Responsável pela seleção de ações externas Agente completo (anteriormente) Recebe percepções e decide sobre ações Crítico Informações sobre como o agente está funcionando As próprias percepções não fornecem indicação de sucesso Determina de que maneira o elemento de desempenho deve ser modificado p/ funcionar melhor no futuro Padrão de desempenho (deve ser fixo) 48 Agentes com Aprendizagem Componentes conceituais Gerador de problemas Sugere ações explorativas que levarão a experiências novas/informativas Permite descobrir ações melhores a longo prazo Exemplo Crítico observa o mundo e repassa informações ao elemento de aprendizagem Ele avalia novas ações e formula novas regras » Ex.: Nova e brusca manobra » Avaliada como ruim (gera uma regra estabelecendo isso) Gerador de problemas Identifica comportamentos que necessitam de melhorias e sugere experimentos 49 Agentes com Aprendizagem O elemento de aprendizagem pode fazer mudanças em qualquer dos componentes de conhecimento dos agentes anteriores Padrão de desempenho Parte da percepção de entrada Recompensa ou penalidade Recompensa sobre a qualidade do comportamento do agente Aprendizagem em agentes inteligentes Processo de modificação de cada componente do agente a fim de melhorar o desempenho do agente 50 Dinossauro do Chrome 51 Bibliografia Russel & Norvig. Inteligência Artificial. 2a Ed. Russel & Norvig. Artificial Intelligence. 3a Ed. – Capítulo 2 (2ª/3ª Edição) LER CAP 1 & CAP 2 http://aima.cs.berkeley.edu/ Exercícios sugeridos: 2.7 2.8 2.9 Slide 1 Slide 2 Slide 3 Slide 4 Slide 5 Slide 6 Slide 7 Slide 8 Slide 9 Slide 10 Slide 11 Slide 12 Slide 13 Slide 14 Slide 15 Slide 16 Slide 17 Slide 18 Slide 19 Slide 20 Slide 21 Slide 22 Slide 23 Slide 24 Slide 25 Slide 26 Slide 27 Slide 28 Slide 29 Slide 30 Slide 31 Slide 32 Slide 33 Slide 34 Slide 35 Slide 36 Slide 37 Slide 38 Slide 39 Slide 40 Slide 41 Slide 42 Slide 43 Slide 44 Slide 45 Slide 46 Slide 47 Slide 48 Slide 49 Slide 50 Slide 51
Compartilhar