dc.contributor
Universitat Autònoma de Barcelona. Departament de Ciències de la Computació
dc.contributor.author
Adrian, Kemo Albert
dc.date.accessioned
2020-09-14T09:18:48Z
dc.date.available
2020-09-14T09:18:48Z
dc.date.issued
2020-02-27
dc.identifier.isbn
9788449090806
dc.identifier.uri
http://hdl.handle.net/10803/669521
dc.description.abstract
En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua.
Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.
en_US
dc.description.abstract
En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua.
Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.
en_US
dc.description.abstract
In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations.
This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity
be able to resolve them and reach mutual intelligibility.
This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning.
The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction.
We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.
en_US
dc.format.extent
189 p.
en_US
dc.format.mimetype
application/pdf
dc.language.iso
eng
en_US
dc.publisher
Universitat Autònoma de Barcelona
dc.rights.license
L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.uri
http://creativecommons.org/licenses/by-nc-nd/4.0/
*
dc.source
TDX (Tesis Doctorals en Xarxa)
dc.subject
Intel·ligència artificial
en_US
dc.subject
Inteligencia artificial
en_US
dc.subject
Artificial intelligence
en_US
dc.subject
Sistemes multi-agent
en_US
dc.subject
Sistemas multi-agente
en_US
dc.subject
Multiagent systems
en_US
dc.subject
Argumentació
en_US
dc.subject
Argumentación
en_US
dc.subject
Argumentation
en_US
dc.subject.other
Ciències Experimentals
en_US
dc.title
A computational model for mutual intelligibility in argumentation-based multiagent systems
en_US
dc.type
info:eu-repo/semantics/doctoralThesis
dc.type
info:eu-repo/semantics/publishedVersion
dc.contributor.authoremail
kemo.adrian@gmail.com
en_US
dc.contributor.director
Plaza, Enric, 1957-
dc.embargo.terms
cap
en_US
dc.rights.accessLevel
info:eu-repo/semantics/openAccess