Agente inteligente
Na inteligência artificial , um agente inteligente ( IA ) é qualquer coisa que percebe seu ambiente, realiza ações de forma autônoma para atingir objetivos, e pode melhorar seu desempenho com aprendizado ou pode usar o conhecimento . Eles podem ser simples ou complexos — um termostato é considerado um exemplo de agente inteligente, assim como um ser humano , assim como qualquer sistema que atenda à definição, como uma empresa , um estado ou um bioma . [1]
Os principais livros didáticos de IA definem "inteligência artificial" como o "estudo e design de agentes inteligentes", uma definição que considera o comportamento direcionado a objetivos como a essência da inteligência. Os agentes direcionados a objetivos também são descritos usando um termo emprestado da economia , " agente racional ". [1]
Um agente tem uma "função objetivo" que encapsula todos os objetivos da AI. Esse agente é projetado para criar e executar qualquer plano que, após a conclusão, maximize o valor esperado da função objetivo. [2] Por exemplo, um agente de aprendizado por reforço tem uma "função de recompensa" que permite aos programadores moldar o comportamento desejado do IA, [3] e o comportamento de um algoritmo evolucionário é moldado por uma "função de aptidão". [4]
Agentes inteligentes em inteligência artificial estão intimamente relacionados com agentes em economia , e versões do paradigma de agente inteligente são estudadas em ciência cognitiva , ética , filosofia da razão prática , bem como em muitas modelagens sociocognitivas interdisciplinares e simulações sociais por computador .
Agentes inteligentes são frequentemente descritos esquematicamente como um sistema funcional abstrato semelhante a um programa de computador. Descrições abstratas de agentes inteligentes são chamadas de agentes inteligentes abstratos ( AIA ) para distingui-los de suas implementações do mundo real. Um agente inteligente autônomo é projetado para funcionar na ausência de intervenção humana. Os agentes inteligentes também estão intimamente relacionados aos agentes de software (um programa de computador autônomo que realiza tarefas em nome dos usuários).
Definição de inteligência artificial
A ciência da computação define a pesquisa de IA como o estudo de agentes inteligentes . [a] O principal livro de IA [5] [6] [7] define um "agente" como:
- "Qualquer coisa que possa ser vista como percebendo seu ambiente por meio de sensores e agindo sobre esse ambiente por meio de atuadores"
define um "agente racional" como:
- "Um agente que atua de forma a maximizar o valor esperado de uma medida de desempenho com base na experiência e conhecimento passados."
e define o campo da pesquisa em "inteligência artificial" como:
- "O estudo e design de agentes racionais"
Uma definição semelhante de IA é dada por Kaplan e Haenlein: "A capacidade de um sistema de interpretar corretamente dados externos, aprender com esses dados e usar esses aprendizados para atingir metas e tarefas específicas por meio de adaptação flexível". [8]
Padgham & Winikoff (2005) concordam que um agente inteligente está situado em um ambiente e responde em tempo hábil (embora não necessariamente em tempo real) às mudanças do ambiente. No entanto, os agentes inteligentes também devem perseguir objetivos de forma proativa, flexível e robusta. [b] Os desideratos opcionais incluem que o agente seja racional e que o agente seja capaz de análise de crença-desejo-intenção . [9]
Vantagens desta definição
Filosoficamente, evita várias linhas de crítica. Ao contrário do teste de Turing , não se refere de forma alguma à inteligência humana. Assim, não há necessidade de discutir se é inteligência "real" versus "simulada" (ou seja, inteligência "sintética" versus "artificial") e não indica que tal máquina tenha uma mente , consciência ou entendimento verdadeiro (ou seja, não implica a " hipótese de IA forte " de John Searle ). Ele também não tenta traçar uma linha divisória nítida entre comportamentos que são "inteligentes" e comportamentos que são "não inteligentes" - os programas só precisam ser medidos em termos de sua função objetiva.
Mais importante, tem uma série de vantagens práticas que ajudaram a impulsionar a pesquisa de IA. Ele fornece uma maneira confiável e científica de testar programas; os pesquisadores podem comparar diretamente ou mesmo combinar diferentes abordagens para problemas isolados, perguntando qual agente é melhor para maximizar uma determinada "função objetivo". Também lhes dá uma linguagem comum para se comunicar com outros campos — como otimização matemática (que é definida em termos de "objetivos") ou economia (que usa a mesma definição de " agente racional "). [10]
Função objetivo
Um agente que recebe uma "função de objetivo" explícita é considerado mais inteligente se executar ações consistentemente que maximizem com sucesso sua função de objetivo programada. O objetivo pode ser simples ("1 se o AI ganhar um jogo de Go , 0 caso contrário") ou complexo ("Executar ações matematicamente semelhantes às que tiveram sucesso no passado"). A "função de objetivo" encapsula todos os objetivos sobre os quais o agente é levado a agir; no caso de agentes racionais, a função também encapsula os trade-offs aceitáveis entre a realização de objetivos conflitantes. (A terminologia varia; por exemplo, alguns agentes procuram maximizar ou minimizar uma " função de utilidade ", "função objetivo" ou " função de perda ".) [6] [7]
Os objetivos podem ser explicitamente definidos ou induzidos. Se a IA estiver programada para “ aprendizagem por reforço ”, ela possui uma “ função de recompensa ” que incentiva alguns tipos de comportamento e pune outros. Alternativamente, um sistema evolutivo pode induzir objetivos usando uma " função de aptidão " para mutar e replicar preferencialmente sistemas de IA de alta pontuação, semelhante à forma como os animais evoluíram para desejar naturalmente certos objetivos, como encontrar comida. [11] Alguns sistemas de IA, como o vizinho mais próximo, em vez de razão por analogia, esses sistemas geralmente não recebem metas, exceto na medida em que as metas estão implícitas em seus dados de treinamento. [12]Tais sistemas ainda podem ser comparados se o sistema sem objetivos for enquadrado como um sistema cujo "objetivo" é cumprir sua tarefa de classificação restrita. [13]
Sistemas que não são tradicionalmente considerados agentes, como sistemas de representação de conhecimento, às vezes são incluídos no paradigma enquadrando-os como agentes que têm o objetivo de (por exemplo) responder perguntas com a maior precisão possível; o conceito de "ação" é aqui estendido para abranger o "ato" de dar uma resposta a uma pergunta. Como uma extensão adicional, os sistemas controlados por mimetismo podem ser enquadrados como agentes que estão otimizando uma "função de objetivo" com base em quão próximo o IA consegue imitar o comportamento desejado. [6] [7] Nas redes adversárias generativasdos anos 2010, um componente "codificador"/"gerador" tenta imitar e improvisar a composição de texto humano. O gerador está tentando maximizar uma função encapsulando quão bem ela pode enganar um componente "preditor"/"discriminador" antagônico. [14]
Embora os sistemas GOFAI geralmente aceitem uma função objetivo explícita, o paradigma também pode ser aplicado a redes neurais e à computação evolutiva . O aprendizado por reforço pode gerar agentes inteligentes que parecem agir de maneira a maximizar uma "função de recompensa". [15] Às vezes, em vez de definir a função de recompensa para ser diretamente igual à função de avaliação de benchmark desejada, os programadores de aprendizado de máquina usarão a modelagem de recompensa para inicialmente dar à máquina recompensas pelo progresso incremental no aprendizado. [16] Yann LeCunafirmou em 2018 que "a maioria dos algoritmos de aprendizado que as pessoas criaram consistem essencialmente em minimizar alguma função objetiva". [17] O xadrez AlphaZero tinha uma função objetivo simples; cada vitória contava como +1 ponto e cada derrota contava como -1 ponto. Uma função objetivo para um carro autônomo teria que ser mais complicada. [18] A computação evolucionária pode desenvolver agentes inteligentes que parecem agir de maneira a maximizar uma "função de aptidão" que influencia quantos descendentes cada agente pode deixar. [4]
O projeto AIXI teórico e incomputável é um agente maximamente inteligente neste paradigma; [19] no entanto, no mundo real, o IA é limitado por tempo finito e recursos de hardware, e os cientistas competem para produzir algoritmos que podem atingir pontuações progressivamente mais altas em testes de benchmark com hardware do mundo real. [20] [ relevante? ]
Classes de agentes inteligentes
Classificação de Russel e Norvig
Russell & Norvig (2003) agrupam os agentes em cinco classes com base em seu grau de inteligência e capacidade percebidas: [21]
Agentes reflexos simples
Agentes reflexos simples agem apenas com base na percepção atual , ignorando o resto da história da percepção. A função do agente é baseada na regra condição-ação : "se condição, então ação".
Essa função de agente só é bem-sucedida quando o ambiente é totalmente observável. Alguns agentes reflexos também podem conter informações sobre seu estado atual, o que lhes permite desconsiderar condições cujos atuadores já estão acionados.
Loops infinitos são muitas vezes inevitáveis para agentes reflexos simples que operam em ambientes parcialmente observáveis. Nota: Se o agente puder randomizar suas ações, pode ser possível escapar de loops infinitos.
Agentes reflexos baseados em modelo
Um agente baseado em modelo pode lidar com ambientes parcialmente observáveis. Seu estado atual é armazenado dentro do agente mantendo algum tipo de estrutura que descreve a parte do mundo que não pode ser vista. Esse conhecimento sobre "como o mundo funciona" é chamado de modelo do mundo, daí o nome "agente baseado em modelo".
Um agente reflexo baseado em modelo deve manter algum tipo de modelo interno que depende do histórico de percepção e, portanto, reflete pelo menos alguns dos aspectos não observados do estado atual. O histórico de percepção e o impacto da ação no meio ambiente podem ser determinados usando o modelo interno. Ele então escolhe uma ação da mesma forma que o agente reflexo.
Um agente também pode usar modelos para descrever e prever os comportamentos de outros agentes no ambiente. [22]
Agentes com base em metas
Os agentes baseados em objetivos expandem ainda mais os recursos dos agentes baseados em modelo, usando informações de "objetivo". As informações da meta descrevem situações que são desejáveis. Isso fornece ao agente uma maneira de escolher entre múltiplas possibilidades, selecionando aquela que atinge um estado objetivo. Pesquisa e planejamento são os subcampos da inteligência artificial dedicados a encontrar sequências de ação que atinjam os objetivos do agente.
Agentes baseados em utilitários
Os agentes baseados em objetivos apenas distinguem entre estados de objetivo e estados de não objetivo. Também é possível definir uma medida de quão desejável é um determinado estado. Esta medida pode ser obtida através do uso de uma função de utilidade que mapeia um estado para uma medida de utilidade do estado. Uma medida de desempenho mais geral deve permitir uma comparação de diferentes estados do mundo de acordo com o quão bem eles satisfizeram os objetivos do agente. O termo utilitário pode ser usado para descrever o quão "feliz" o agente está.
Um agente racional baseado em utilidade escolhe a ação que maximiza a utilidade esperada dos resultados da ação - ou seja, o que o agente espera obter, em média, dadas as probabilidades e utilidades de cada resultado. Um agente baseado em utilidade precisa modelar e acompanhar seu ambiente, tarefas que envolveram muita pesquisa sobre percepção, representação, raciocínio e aprendizado.
Agentes de aprendizagem
A aprendizagem tem a vantagem de permitir que os agentes operem inicialmente em ambientes desconhecidos e se tornem mais competentes do que seu conhecimento inicial por si só poderia permitir. A distinção mais importante é entre o "elemento de aprendizagem", que é responsável por fazer melhorias, e o "elemento de desempenho", que é responsável por selecionar as ações externas.
O elemento de aprendizado usa o feedback do "crítico" sobre como o agente está se saindo e determina como o elemento de desempenho, ou "ator", deve ser modificado para melhorar no futuro. O elemento de desempenho é o que consideramos anteriormente como o agente inteiro: ele recebe percepções e decide ações.
O último componente do agente de aprendizagem é o "gerador de problemas". É responsável por sugerir ações que levarão a experiências novas e informativas.
Classificação de Weiss
Weiss (2013) define quatro classes de agentes:
- Agentes baseados em lógica – em que a decisão sobre qual ação realizar é feita via dedução lógica;
- Agentes reativos – em que a tomada de decisão é implementada em alguma forma de mapeamento direto da situação para a ação;
- Agentes de crença-desejo-intenção – em que a tomada de decisão depende da manipulação de estruturas de dados que representam as crenças, desejos e intenções do agente; e finalmente,
- Arquiteturas em camadas – nas quais a tomada de decisão é realizada por meio de várias camadas de software, cada uma das quais raciocina mais ou menos explicitamente sobre o ambiente em diferentes níveis de abstração.
Hierarquias de agentes
Para desempenhar ativamente suas funções , os Agentes Inteligentes hoje são normalmente reunidos em uma estrutura hierárquica contendo muitos “subagentes”. Os subagentes inteligentes processam e executam funções de nível inferior. Juntos, o agente inteligente e os subagentes criam um sistema completo que pode realizar tarefas ou objetivos difíceis com comportamentos e respostas que exibem uma forma de inteligência.
Geralmente, um agente pode ser construído separando o corpo em sensores e atuadores, de modo que opere com um complexo sistema de percepção que toma a descrição do mundo como entrada para um controlador e envia comandos para o atuador. No entanto, uma hierarquia de camadas de controlador geralmente é necessária para equilibrar a reação imediata desejada para tarefas de baixo nível e o raciocínio lento sobre objetivos complexos e de alto nível. [23]
Função do agente
Um programa de agente simples pode ser definido matematicamente como uma função f (chamada de "função de agente") [24] que mapeia cada sequência de percepção possível para uma ação possível que o agente pode realizar ou para um coeficiente, elemento de feedback, função ou constante que afeta eventuais ações:
A função de agente é um conceito abstrato, pois pode incorporar vários princípios de tomada de decisão, como cálculo de utilidade de opções individuais, dedução sobre regras lógicas, lógica difusa , etc. [25]
O agente do programa, em vez disso, mapeia todas as percepções possíveis para uma ação. [26]
Usamos o termo percepto para nos referirmos às entradas perceptivas do agente em um dado instante. Nas figuras a seguir, um agente é qualquer coisa que possa ser vista como percebendo seu ambiente por meio de sensores e agindo sobre esse ambiente por meio de atuadores.
Aplicativos

Agentes inteligentes são aplicados como assistentes online automatizados , onde funcionam para perceber as necessidades dos clientes a fim de realizar um atendimento individualizado . Tal agente pode consistir basicamente em um sistema de diálogo , um avatar , bem como um sistema especialista para fornecer conhecimentos específicos ao usuário. [27] Eles também podem ser usados para otimizar a coordenação de grupos humanos online. [28] Hallerbach et al. discutiram a aplicação de abordagens baseadas em agentes para o desenvolvimento e validação de sistemas de direção automatizada por meio de um gêmeo digital do veículo sob teste e simulação microscópica de tráfego baseada em agentes independentes. [29] Waymocriou um ambiente de simulação multiagente Carcraft para testar algoritmos para carros autônomos . [30] [31] Ele simula interações de tráfego entre motoristas humanos, pedestres e veículos automatizados. O comportamento das pessoas é imitado por agentes artificiais baseados em dados do comportamento humano real. A ideia básica de usar modelagem baseada em agentes para entender carros autônomos foi discutida já em 2003. [32]
Definições e usos alternativos
"Agente inteligente" também é frequentemente usado como um termo de marketing vago, às vezes sinônimo de " assistente pessoal virtual ". [33] Algumas definições do século 20 caracterizam um agente como um programa que auxilia um usuário ou que atua em nome de um usuário. [34] Esses exemplos são conhecidos como agentes de software e, às vezes, um "agente de software inteligente" (ou seja, um agente de software com inteligência) é chamado de "agente inteligente".
De acordo com Nikola Kasabov, os sistemas IA devem apresentar as seguintes características: [35]
- Acomode novas regras de solução de problemas de forma incremental
- Adapte -se online e em tempo real
- São capazes de se analisar em termos de comportamento, erro e sucesso.
- Aprenda e melhore através da interação com o meio ambiente ( corporificação )
- Aprenda rapidamente com grandes quantidades de dados
- Tenha capacidade de armazenamento e recuperação de exemplares baseados em memória
- Tenha parâmetros para representar memória de curto e longo prazo, idade, esquecimento, etc.
Veja também
- Agente de software
- Arquiteturas cognitivas
- Rádio Cognitivo – um campo prático para implementação
- Ciência da Computação
- Cibernética
- Agente de mineração de dados
- Agente incorporado
- Pesquisa federada – a capacidade dos agentes de pesquisar fontes de dados heterogêneas usando um único vocabulário
- Agentes fuzzy – IA implementados com lógica fuzzy adaptativa
- Linguagem de programação do agente GOAL
- Inteligência
- Sistema inteligente
- Agentes Inteligentes JACK
- Sistema multiagente e sistema multiagente – vários agentes interativos
- Classificação PEAS do ambiente de um agente
- Aprendizado por reforço
- Web Semântica – disponibilizando dados na Web para processamento automatizado por agentes
- Realidade simulada
- Simulação social
- Era dos agentes inteligentes
Notas
- ^ AI como agentes inteligentes (nota completa em inteligência artificial
- ↑ A definição de Padgham & Winikoff cobre explicitamente apenas agentes sociais que interagem com outros agentes.
Referências em linha
- ^ a b Russell & Norvig 2003 , cap. 2.
- ↑ Bringsjord, Selmer e Govindarajulu, Naveen Sundar, "Artificial Intelligence", The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/sum2020 /entries/artificial-intelligence/ .
- ↑ Wolchover, Natalie (30 de janeiro de 2020). "A inteligência artificial fará o que pedimos. Isso é um problema" . Revista Quanta . Recuperado em 21 de junho de 2020 .
- ^ a b Touro, Larry. "Em computação evolutiva baseada em modelo." Soft Computing 3, não. 2 (1999): 76-82.
- ^ Russell & Norvig 2003 , pp. 4–5, 32, 35, 36 e 56.
- ^ a b c Russell & Norvig (2003)
- ^ a b c Bringsjord, Selmer e Govindarajulu, Naveen Sundar, "Inteligência Artificial", The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Edward N. Zalta (ed.), a ser publicado URL = < https://plato.stanford. edu/archives/sum2020/entries/artificial-intelligence/ >.
- ^ Kaplan, Andreas; Haenlein, Michael (1 de janeiro de 2019). "Siri, Siri, na minha mão: quem é o mais justo da terra? Sobre as interpretações, ilustrações e implicações da inteligência artificial". Horizontes de Negócios . 62 (1): 15–25. doi : 10.1016/j.bushor.2018.08.004 .
- ^ Lin Padgham e Michael Winikoff. Desenvolvimento de sistemas de agentes inteligentes: um guia prático. Vol. 13. John Wiley & Sons, 2005.
- ^ Russell & Norvig 2003 , p. 27.
- ^ Domingos 2015 , Capítulo 5.
- ^ Domingos 2015 , Capítulo 7.
- ^ Lindenbaum, M., Markovitch, S., & Rusakov, D. (2004). Amostragem seletiva para classificadores de vizinhos mais próximos. Aprendizado de máquina, 54(2), 125–152.
- ^ "Redes adversárias generativas: O que são GANs e como eles evoluíram" . VentureBeat . 26 de dezembro de 2019 . Recuperado em 18 de junho de 2020 .
- ^ Wolchover, Natalie (janeiro de 2020). "A inteligência artificial fará o que pedimos. Isso é um problema" . Revista Quanta . Recuperado em 18 de junho de 2020 .
- ^ Andrew Y. Ng, Daishi Harada e Stuart Russell. "Invariância de política sob transformações de recompensa: teoria e aplicação para recompensar modelagem." Em ICML, vol. 99, págs. 278-287. 1999.
- ^ Martin Ford . Arquitetos de Inteligência: A verdade sobre a IA das pessoas que a construíram. Packt Publishing Ltd, 2018.
- ^ "Por que a inteligência artificial do AlphaZero tem problemas com o mundo real" . Revista Quanta . 2018 . Recuperado em 18 de junho de 2020 .
- ^ Adams, Sam; Arel, Itmar; Bach, Joscha; Coop, Roberto; Furlan, Rod; Goertzel, Ben; Hall, J. Storrs; Samsonovich, Alexei; Scheutz, Matthias; Schlesinger, Matthew; Shapiro, Stuart C.; Sowa, John (15 de março de 2012). "Mapeando o cenário da inteligência geral artificial em nível humano" . Revista AI . 33 (1): 25. doi : 10.1609/aimag.v33i1.2322 .
- ↑ Hutson, Matthew (27 de maio de 2020). "Avanços atraentes em alguns campos de IA não são reais" . Ciência | AAA . Recuperado em 18 de junho de 2020 .
- ^ Russell & Norvig 2003 , pp. 46-54
- ↑ Stefano Albrecht e Peter Stone (2018). Agentes Autônomos Modelando Outros Agentes: Uma Pesquisa Abrangente e Problemas Abertos. Inteligência Artificial, v. 258, págs. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
- ^ Poole, David; Mackworth, Alan. "1.3 Agentes Situados em Ambientes‣ Capítulo 2 Arquiteturas de Agentes e Controle Hierárquico‣ Inteligência Artificial: Fundamentos de Agentes Computacionais, 2ª Edição" . artint.info . Recuperado em 28 de novembro de 2018 .
- ^ Russell & Norvig 2003 , p. 33
- ^ Salamon, Tomas (2011). Desenho de Modelos Baseados em Agentes . Repin: Bruckner Publishing. págs. 42–59. ISBN 978-80-904661-1-1.
- ^ Nilsson, Nils J. (abril de 1996). "Inteligência Artificial: Uma abordagem moderna" . Inteligência Artificial . 82 (1–2): 369–380. doi : 10.1016/0004-3702(96)00007-0 . ISSN 0004-3702 .
- ^ Fornecendo o instrutor da língua com o assistente da inteligência artificial . Por Krzysztof Pietroszek. International Journal of Emerging Technologies in Learning (iJET), Vol 2, No 4 (2007) [1] "Cópia arquivada" . Arquivado a partir do original em 2012-03-07 . Recuperado em 29-01-2012 .
{{cite web}}
: CS1 maint: archived copy as title (link) - ^ Shirado, Hirokazu; Christakis, Nicholas A (2017). "Agentes autônomos localmente barulhentos melhoram a coordenação humana global em experimentos de rede" . Natureza . 545 (7654): 370–374. Bibcode : 2017Natur.545..370S . doi : 10.1038/nature22332 . PMC 5912653 . PMID 28516927 .
- ^ Hallerbach, S.; Xia, Y.; Eberle, U.; Koester, F. (2018). "Identificação Baseada em Simulação de Cenários Críticos para Veículos Cooperativos e Automatizados" . SAE International Journal of Connected and Automated Vehicles . SAE Internacional. 1 (2): 93.
- ^ Madrigal, história por Alexis C. "Mundo secreto de dentro de Waymo para treinar carros autônomos" . O Atlântico . Recuperado em 14 de agosto de 2020 .
- ^ Connors, J.; Graham, S.; Mailloux, L. (2018). "Cyber Synthetic Modeling for Vehicle-to-Vehicle Applications". Em Conferência Internacional sobre Guerra Cibernética e Segurança . Conferências Acadêmicas Internacional Limitada: 594-XI.
- ^ Yang, Guoqing; Wu, Zhaohui; Li, Xiumei; Chen, Wei (2003). "SVE: ambiente de veículo inteligente baseado em agente incorporado" . Proceedings of the 2003 IEEE International Conference on Intelligent Transportation Systems . 2 : 1745–1749 vol.2. doi : 10.1109/ITSC.2003.1252782 .
- ^ Fingar, Peter (2018). "Competindo pelo futuro com agentes inteligentes... e uma confissão" . Sites Forbes . Recuperado em 18 de junho de 2020 .
- ↑ Burgin, Mark e Gordana Dodig-Crnkovic. "Uma abordagem sistemática para agentes artificiais." arXiv pré-impressão arXiv:0902.3513 (2009).
- ^ Kasabov 1998 .
Outras referências
- Domingos, Pedro (22 de setembro de 2015). O algoritmo mestre: como a busca pela máquina de aprendizado definitiva irá refazer nosso mundo . Livros Básicos . ISBN 978-0465065707.
- Russel, Stuart J .; Norvig, Peter (2003). Inteligência Artificial: Uma Abordagem Moderna (2ª ed.). Upper Saddle River, Nova Jersey: Prentice Hall. Capítulo 2. ISBN 0-13-790395-2.
- Kasabov, N. (1998). "Introdução: Sistemas adaptativos inteligentes híbridos". Revista Internacional de Sistemas Inteligentes . 13 (6): 453–454. doi : 10.1002/(SICI)1098-111X(199806)13:6<453::AID-INT1>3.0.CO;2-K .
- Weiss, G. (2013). Sistemas multiagentes (2ª ed.). Cambridge, MA: MIT Press. ISBN 978-0-262-01889-0.