<?xml version="1.0" encoding="UTF-8" ?>
<oai_dc:dc schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
<dc:title>A computational model for mutual intelligibility in argumentation-based multiagent systems</dc:title>
<dc:creator>Adrian, Kemo Albert</dc:creator>
<dc:contributor>kemo.adrian@gmail.com</dc:contributor>
<dc:contributor>true</dc:contributor>
<dc:contributor>Plaza, Enric, 1957-</dc:contributor>
<dc:contributor>Universitat Autònoma de Barcelona. Departament de Ciències de la Computació</dc:contributor>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Artificial intelligence</dc:subject>
<dc:subject>Sistemes multi-agent</dc:subject>
<dc:subject>Sistemas multi-agente</dc:subject>
<dc:subject>Multiagent systems</dc:subject>
<dc:subject>Argumentació</dc:subject>
<dc:subject>Argumentación</dc:subject>
<dc:subject>Argumentation</dc:subject>
<dc:subject>Ciències Experimentals</dc:subject>
<dc:subject>004</dc:subject>
<dc:description>En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</dc:description>
<dc:description>En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</dc:description>
<dc:description>In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</dc:description>
<dc:date>2020-09-14T09:18:48Z</dc:date>
<dc:date>2020-09-14T09:18:48Z</dc:date>
<dc:date>2020-02-27</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>9788449090806</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/669521</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:format>189 p.</dc:format>
<dc:format>application/pdf</dc:format>
<dc:format>application/pdf</dc:format>
<dc:publisher>Universitat Autònoma de Barcelona</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</oai_dc:dc>
<?xml version="1.0" encoding="UTF-8" ?>
<dim:dim schemaLocation="http://www.dspace.org/xmlns/dspace/dim http://www.dspace.org/schema/dim.xsd">
<dim:field element="contributor" mdschema="dc">Universitat Autònoma de Barcelona. Departament de Ciències de la Computació</dim:field>
<dim:field authority="582e9bb4-1c4c-4f0b-8246-e856961f9e27" confidence="-1" element="contributor" mdschema="dc" qualifier="author">Adrian, Kemo Albert</dim:field>
<dim:field element="contributor" lang="en_US" mdschema="dc" qualifier="authoremail">kemo.adrian@gmail.com</dim:field>
<dim:field element="contributor" lang="en_US" mdschema="dc" qualifier="authoremailshow">true</dim:field>
<dim:field element="contributor" mdschema="dc" qualifier="director">Plaza, Enric, 1957-</dim:field>
<dim:field element="date" mdschema="dc" qualifier="accessioned">2020-09-14T09:18:48Z</dim:field>
<dim:field element="date" mdschema="dc" qualifier="available">2020-09-14T09:18:48Z</dim:field>
<dim:field element="date" mdschema="dc" qualifier="issued">2020-02-27</dim:field>
<dim:field element="identifier" mdschema="dc" qualifier="isbn">9788449090806</dim:field>
<dim:field element="identifier" mdschema="dc" qualifier="uri">http://hdl.handle.net/10803/669521</dim:field>
<dim:field element="description" lang="en_US" mdschema="dc" qualifier="abstract">En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</dim:field>
<dim:field element="description" lang="en_US" mdschema="dc" qualifier="abstract">En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</dim:field>
<dim:field element="description" lang="en_US" mdschema="dc" qualifier="abstract">In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</dim:field>
<dim:field element="format" lang="en_US" mdschema="dc" qualifier="extent">189 p.</dim:field>
<dim:field element="format" mdschema="dc" qualifier="mimetype">application/pdf</dim:field>
<dim:field element="language" lang="en_US" mdschema="dc" qualifier="iso">eng</dim:field>
<dim:field element="publisher" mdschema="dc">Universitat Autònoma de Barcelona</dim:field>
<dim:field element="rights" mdschema="dc" qualifier="license">L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/</dim:field>
<dim:field element="rights" mdschema="dc" qualifier="accessLevel">info:eu-repo/semantics/openAccess</dim:field>
<dim:field element="source" mdschema="dc">TDX (Tesis Doctorals en Xarxa)</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Intel·ligència artificial</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Inteligencia artificial</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Artificial intelligence</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Sistemes multi-agent</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Sistemas multi-agente</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Multiagent systems</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Argumentació</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Argumentación</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc">Argumentation</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc" qualifier="other">Ciències Experimentals</dim:field>
<dim:field element="subject" lang="en_US" mdschema="dc" qualifier="udc">004</dim:field>
<dim:field element="title" lang="en_US" mdschema="dc">A computational model for mutual intelligibility in argumentation-based multiagent systems</dim:field>
<dim:field element="type" mdschema="dc">info:eu-repo/semantics/doctoralThesis</dim:field>
<dim:field element="type" mdschema="dc">info:eu-repo/semantics/publishedVersion</dim:field>
<dim:field element="embargo" lang="en_US" mdschema="dc" qualifier="terms">cap</dim:field>
</dim:dim>
<?xml version="1.0" encoding="UTF-8" ?>
<thesis schemaLocation="http://www.ndltd.org/standards/metadata/etdms/1.0/ http://www.ndltd.org/standards/metadata/etdms/1.0/etdms.xsd">
<title>A computational model for mutual intelligibility in argumentation-based multiagent systems</title>
<creator>Adrian, Kemo Albert</creator>
<contributor>kemo.adrian@gmail.com</contributor>
<contributor>true</contributor>
<contributor>Plaza, Enric, 1957-</contributor>
<subject>Intel·ligència artificial</subject>
<subject>Inteligencia artificial</subject>
<subject>Artificial intelligence</subject>
<subject>Sistemes multi-agent</subject>
<subject>Sistemas multi-agente</subject>
<subject>Multiagent systems</subject>
<subject>Argumentació</subject>
<subject>Argumentación</subject>
<subject>Argumentation</subject>
<description>En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</description>
<description>En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</description>
<description>In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</description>
<date>2020-09-14</date>
<date>2020-09-14</date>
<date>2020-02-27</date>
<type>info:eu-repo/semantics/doctoralThesis</type>
<type>info:eu-repo/semantics/publishedVersion</type>
<identifier>9788449090806</identifier>
<identifier>http://hdl.handle.net/10803/669521</identifier>
<language>eng</language>
<rights>L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/</rights>
<rights>info:eu-repo/semantics/openAccess</rights>
<publisher>Universitat Autònoma de Barcelona</publisher>
<source>TDX (Tesis Doctorals en Xarxa)</source>
</thesis>
<?xml version="1.0" encoding="UTF-8" ?>
<record schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">
<leader>00925njm 22002777a 4500</leader>
<datafield ind1=" " ind2=" " tag="042">
<subfield code="a">dc</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="720">
<subfield code="a">Adrian, Kemo Albert</subfield>
<subfield code="e">author</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="260">
<subfield code="c">2020-02-27</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</subfield>
</datafield>
<datafield ind1="8" ind2=" " tag="024">
<subfield code="a">9788449090806</subfield>
</datafield>
<datafield ind1="8" ind2=" " tag="024">
<subfield code="a">http://hdl.handle.net/10803/669521</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Intel·ligència artificial</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Inteligencia artificial</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Artificial intelligence</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Sistemes multi-agent</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Sistemas multi-agente</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Multiagent systems</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Argumentació</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Argumentación</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Argumentation</subfield>
</datafield>
<datafield ind1="0" ind2="0" tag="245">
<subfield code="a">A computational model for mutual intelligibility in argumentation-based multiagent systems</subfield>
</datafield>
</record>
<?xml version="1.0" encoding="UTF-8" ?>
<record schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">
<leader>nam a 5i 4500</leader>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Intel·ligència artificial</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Inteligencia artificial</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Artificial intelligence</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Sistemes multi-agent</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Sistemas multi-agente</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Multiagent systems</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Argumentació</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Argumentación</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Argumentation</subfield>
</datafield>
<datafield ind1="1" ind2="0" tag="245">
<subfield code="a">A computational model for mutual intelligibility in argumentation-based multiagent systems</subfield>
</datafield>
<datafield ind1=" " ind2="1" tag="264">
<subfield code="a">[Barcelona] :</subfield>
<subfield code="b">Universitat Autònoma de Barcelona,</subfield>
<subfield code="c">2020</subfield>
</datafield>
<datafield ind1="4" ind2="0" tag="856">
<subfield code="z">Accés lliure</subfield>
<subfield code="u">http://hdl.handle.net/10803/669521</subfield>
</datafield>
<controlfield tag="007">cr |||||||||||</controlfield>
<controlfield tag="008">AAMMDDs2020 sp ||||fsm||||0|| 0 eng|c</controlfield>
<datafield ind1=" " ind2=" " tag="020">
<subfield code="a">9788449090806</subfield>
</datafield>
<datafield ind1="1" ind2=" " tag="100">
<subfield code="a">Adrian, Kemo Albert,</subfield>
<subfield code="e">autor</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="300">
<subfield code="a">1 recurs en línia (189 pàgines)</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="502">
<subfield code="g">Tesi</subfield>
<subfield code="b">Doctorat</subfield>
<subfield code="c">Universitat Autònoma de Barcelona. Departament de Ciències de la Computació</subfield>
<subfield code="d">2020</subfield>
</datafield>
<datafield ind1="2" ind2=" " tag="710">
<subfield code="a">Universitat Autònoma de Barcelona. Departament de Ciències de la Computació</subfield>
</datafield>
<datafield ind1=" " ind2="4" tag="655">
<subfield code="a">Tesis i dissertacions electròniques</subfield>
</datafield>
<datafield ind1="1" ind2=" " tag="700">
<subfield code="a">Plaza, Enric, ,</subfield>
<subfield code="d">1957-</subfield>
<subfield code="e">supervisor acadèmic</subfield>
</datafield>
<datafield ind1="0" ind2=" " tag="730">
<subfield code="a">TDX</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="998">
<subfield code="a">a</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="040">
<subfield code="a">ES-BaCBU</subfield>
<subfield code="b">cat</subfield>
<subfield code="e">rda</subfield>
<subfield code="c">ES-BaCBU</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="336">
<subfield code="a">text</subfield>
<subfield code="b">txt</subfield>
<subfield code="2">rdacontent</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="337">
<subfield code="a">informàtic</subfield>
<subfield code="b">c</subfield>
<subfield code="2">rdamedia</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="338">
<subfield code="a">recurs en línia</subfield>
<subfield code="b">cr</subfield>
<subfield code="2">rdacarrier</subfield>
</datafield>
</record>
<?xml version="1.0" encoding="UTF-8" ?>
<mets ID=" DSpace_ITEM_10803-669521" OBJID=" hdl:10803/669521" PROFILE="DSpace METS SIP Profile 1.0" TYPE="DSpace ITEM" schemaLocation="http://www.loc.gov/METS/ http://www.loc.gov/standards/mets/mets.xsd">
<metsHdr CREATEDATE="2023-01-19T17:35:18Z">
<agent ROLE="CUSTODIAN" TYPE="ORGANIZATION">
<name>TDX (Tesis Doctorals en Xarxa)</name>
</agent>
</metsHdr>
<dmdSec ID="DMD_10803_669521">
<mdWrap MDTYPE="MODS">
<xmlData schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:mods schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:role>
<mods:roleTerm type="text">author</mods:roleTerm>
</mods:role>
<mods:namePart>Adrian, Kemo Albert</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">authoremail</mods:roleTerm>
</mods:role>
<mods:namePart>kemo.adrian@gmail.com</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">authoremailshow</mods:roleTerm>
</mods:role>
<mods:namePart>true</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">director</mods:roleTerm>
</mods:role>
<mods:namePart>Plaza, Enric, 1957-</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2020-09-14T09:18:48Z</mods:dateAccessioned>
</mods:extension>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2020-09-14T09:18:48Z</mods:dateAvailable>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2020-02-27</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="isbn">9788449090806</mods:identifier>
<mods:identifier type="uri">http://hdl.handle.net/10803/669521</mods:identifier>
<mods:abstract>En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</mods:abstract>
<mods:language>
<mods:languageTerm authority="rfc3066">eng</mods:languageTerm>
</mods:language>
<mods:subject>
<mods:topic>Intel·ligència artificial</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Inteligencia artificial</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Artificial intelligence</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Sistemes multi-agent</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Sistemas multi-agente</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Multiagent systems</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Argumentació</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Argumentación</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Argumentation</mods:topic>
</mods:subject>
<mods:titleInfo>
<mods:title>A computational model for mutual intelligibility in argumentation-based multiagent systems</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/doctoralThesis info:eu-repo/semantics/publishedVersion</mods:genre>
</mods:mods>
</xmlData>
</mdWrap>
</dmdSec>
<amdSec ID="FO_10803_669521_1">
<techMD ID="TECH_O_10803_669521_1">
<mdWrap MDTYPE="PREMIS">
<xmlData schemaLocation="http://www.loc.gov/standards/premis http://www.loc.gov/standards/premis/PREMIS-v1-0.xsd">
<premis:premis>
<premis:object>
<premis:objectIdentifier>
<premis:objectIdentifierType>URL</premis:objectIdentifierType>
<premis:objectIdentifierValue>https://www.tdx.cat/bitstream/10803/669521/1/kead1de1.pdf</premis:objectIdentifierValue>
</premis:objectIdentifier>
<premis:objectCategory>File</premis:objectCategory>
<premis:objectCharacteristics>
<premis:fixity>
<premis:messageDigestAlgorithm>MD5</premis:messageDigestAlgorithm>
<premis:messageDigest>b7ba9124ac0f2ce82421cda934abf37a</premis:messageDigest>
</premis:fixity>
<premis:size>7996110</premis:size>
<premis:format>
<premis:formatDesignation>
<premis:formatName>application/pdf</premis:formatName>
</premis:formatDesignation>
</premis:format>
</premis:objectCharacteristics>
<premis:originalName>kead1de1.pdf</premis:originalName>
</premis:object>
</premis:premis>
</xmlData>
</mdWrap>
</techMD>
</amdSec>
<amdSec ID="FT_10803_669521_6">
<techMD ID="TECH_T_10803_669521_6">
<mdWrap MDTYPE="PREMIS">
<xmlData schemaLocation="http://www.loc.gov/standards/premis http://www.loc.gov/standards/premis/PREMIS-v1-0.xsd">
<premis:premis>
<premis:object>
<premis:objectIdentifier>
<premis:objectIdentifierType>URL</premis:objectIdentifierType>
<premis:objectIdentifierValue>https://www.tdx.cat/bitstream/10803/669521/6/kead1de1.pdf.txt</premis:objectIdentifierValue>
</premis:objectIdentifier>
<premis:objectCategory>File</premis:objectCategory>
<premis:objectCharacteristics>
<premis:fixity>
<premis:messageDigestAlgorithm>MD5</premis:messageDigestAlgorithm>
<premis:messageDigest>1fe7ffb71d4be74e356ab922ce589544</premis:messageDigest>
</premis:fixity>
<premis:size>510703</premis:size>
<premis:format>
<premis:formatDesignation>
<premis:formatName>text/plain</premis:formatName>
</premis:formatDesignation>
</premis:format>
</premis:objectCharacteristics>
<premis:originalName>kead1de1.pdf.txt</premis:originalName>
</premis:object>
</premis:premis>
</xmlData>
</mdWrap>
</techMD>
</amdSec>
<fileSec>
<fileGrp USE="ORIGINAL">
<file ADMID="FO_10803_669521_1" CHECKSUM="b7ba9124ac0f2ce82421cda934abf37a" CHECKSUMTYPE="MD5" GROUPID="GROUP_BITSTREAM_10803_669521_1" ID="BITSTREAM_ORIGINAL_10803_669521_1" MIMETYPE="application/pdf" SEQ="1" SIZE="7996110">
</file>
</fileGrp>
<fileGrp USE="TEXT">
<file ADMID="FT_10803_669521_6" CHECKSUM="1fe7ffb71d4be74e356ab922ce589544" CHECKSUMTYPE="MD5" GROUPID="GROUP_BITSTREAM_10803_669521_6" ID="BITSTREAM_TEXT_10803_669521_6" MIMETYPE="text/plain" SEQ="6" SIZE="510703">
</file>
</fileGrp>
</fileSec>
<structMap LABEL="DSpace Object" TYPE="LOGICAL">
<div ADMID="DMD_10803_669521" TYPE="DSpace Object Contents">
<div TYPE="DSpace BITSTREAM">
</div>
</div>
</structMap>
</mets>
<?xml version="1.0" encoding="UTF-8" ?>
<mods:mods schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:namePart>Adrian, Kemo Albert</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2020-09-14T09:18:48Z</mods:dateAvailable>
</mods:extension>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2020-09-14T09:18:48Z</mods:dateAccessioned>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2020-02-27</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="isbn">9788449090806</mods:identifier>
<mods:identifier type="uri">http://hdl.handle.net/10803/669521</mods:identifier>
<mods:abstract>En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</mods:abstract>
<mods:abstract>En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</mods:abstract>
<mods:abstract>In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</mods:abstract>
<mods:language>
<mods:languageTerm>eng</mods:languageTerm>
</mods:language>
<mods:accessCondition type="useAndReproduction">L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/</mods:accessCondition>
<mods:accessCondition type="useAndReproduction">info:eu-repo/semantics/openAccess</mods:accessCondition>
<mods:subject>
<mods:topic>Intel·ligència artificial</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Inteligencia artificial</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Artificial intelligence</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Sistemes multi-agent</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Sistemas multi-agente</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Multiagent systems</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Argumentació</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Argumentación</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Argumentation</mods:topic>
</mods:subject>
<mods:titleInfo>
<mods:title>A computational model for mutual intelligibility in argumentation-based multiagent systems</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/doctoralThesis</mods:genre>
<mods:genre>info:eu-repo/semantics/publishedVersion</mods:genre>
</mods:mods>
<?xml version="1.0" encoding="UTF-8" ?>
<oaire:record schemaLocation="http://namespaceopenaire.eu/schema/oaire/">
<dc:title>A computational model for mutual intelligibility in argumentation-based multiagent systems</dc:title>
<datacite:creator>
<datacite:creatorName>Adrian, Kemo Albert</datacite:creatorName>
</datacite:creator>
<datacite:contributor>kemo.adrian@gmail.com</datacite:contributor>
<datacite:contributor>true</datacite:contributor>
<datacite:contributor>Plaza, Enric, 1957-</datacite:contributor>
<datacite:contributor>Universitat Autònoma de Barcelona. Departament de Ciències de la Computació</datacite:contributor>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Artificial intelligence</dc:subject>
<dc:subject>Sistemes multi-agent</dc:subject>
<dc:subject>Sistemas multi-agente</dc:subject>
<dc:subject>Multiagent systems</dc:subject>
<dc:subject>Argumentació</dc:subject>
<dc:subject>Argumentación</dc:subject>
<dc:subject>Argumentation</dc:subject>
<dc:subject>Ciències Experimentals</dc:subject>
<dc:subject>004</dc:subject>
<dc:description>En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</dc:description>
<dc:description>En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</dc:description>
<dc:description>In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</dc:description>
<dc:date>2020-09-14T09:18:48Z</dc:date>
<dc:date>2020-09-14T09:18:48Z</dc:date>
<dc:date>2020-02-27</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<datacite:alternateIdentifier>9788449090806</datacite:alternateIdentifier>
<datacite:alternateIdentifier>http://hdl.handle.net/10803/669521</datacite:alternateIdentifier>
<dc:language>eng</dc:language>
<dc:rights>L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:format>189 p.</dc:format>
<dc:format>application/pdf</dc:format>
<dc:format>application/pdf</dc:format>
<dc:publisher>Universitat Autònoma de Barcelona</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
<oaire:file>https://www.tdx.cat/bitstream/10803/669521/1/kead1de1.pdf</oaire:file>
</oaire:record>
<?xml version="1.0" encoding="UTF-8" ?>
<atom:entry schemaLocation="http://www.w3.org/2005/Atom http://www.kbcafe.com/rss/atom.xsd.xml">
<atom:id>http://hdl.handle.net/10803/669521/ore.xml</atom:id>
<atom:published>2020-09-14T09:18:48Z</atom:published>
<atom:updated>2020-09-14T09:18:48Z</atom:updated>
<atom:source>
<atom:generator>TDX (Tesis Doctorals en Xarxa)</atom:generator>
</atom:source>
<atom:title>A computational model for mutual intelligibility in argumentation-based multiagent systems</atom:title>
<atom:author>
<atom:name>Adrian, Kemo Albert</atom:name>
</atom:author>
<oreatom:triples>
<rdf:Description about="http://hdl.handle.net/10803/669521/ore.xml#atom">
<dcterms:modified>2020-09-14T09:18:48Z</dcterms:modified>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/669521/6/kead1de1.pdf.txt">
<dcterms:description>TEXT</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/669521/1/kead1de1.pdf">
<dcterms:description>ORIGINAL</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/669521/2/license_url">
<dcterms:description>CC-LICENSE</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/669521/3/license_text">
<dcterms:description>CC-LICENSE</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/669521/4/license_rdf">
<dcterms:description>CC-LICENSE</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/669521/5/kead1de1.pdf.xml">
<dcterms:description>MEDIA_DOCUMENT</dcterms:description>
</rdf:Description>
</oreatom:triples>
</atom:entry>
<?xml version="1.0" encoding="UTF-8" ?>
<qdc:qualifieddc schemaLocation="http://purl.org/dc/elements/1.1/ http://dublincore.org/schemas/xmls/qdc/2006/01/06/dc.xsd http://purl.org/dc/terms/ http://dublincore.org/schemas/xmls/qdc/2006/01/06/dcterms.xsd http://dspace.org/qualifieddc/ http://www.ukoln.ac.uk/metadata/dcmi/xmlschema/qualifieddc.xsd">
<dc:title>A computational model for mutual intelligibility in argumentation-based multiagent systems</dc:title>
<dc:creator>Adrian, Kemo Albert</dc:creator>
<dc:contributor>Plaza, Enric, 1957-</dc:contributor>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Artificial intelligence</dc:subject>
<dc:subject>Sistemes multi-agent</dc:subject>
<dc:subject>Sistemas multi-agente</dc:subject>
<dc:subject>Multiagent systems</dc:subject>
<dc:subject>Argumentació</dc:subject>
<dc:subject>Argumentación</dc:subject>
<dc:subject>Argumentation</dc:subject>
<dcterms:abstract>En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</dcterms:abstract>
<dcterms:abstract>En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</dcterms:abstract>
<dcterms:abstract>In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</dcterms:abstract>
<dcterms:dateAccepted>2020-09-14T09:18:48Z</dcterms:dateAccepted>
<dcterms:available>2020-09-14T09:18:48Z</dcterms:available>
<dcterms:created>2020-09-14T09:18:48Z</dcterms:created>
<dcterms:issued>2020-02-27</dcterms:issued>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>9788449090806</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/669521</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:publisher>Universitat Autònoma de Barcelona</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</qdc:qualifieddc>
<?xml version="1.0" encoding="UTF-8" ?>
<rdf:RDF schemaLocation="http://www.openarchives.org/OAI/2.0/rdf/ http://www.openarchives.org/OAI/2.0/rdf.xsd">
<ow:Publication about="oai:www.tdx.cat:10803/669521">
<dc:title>A computational model for mutual intelligibility in argumentation-based multiagent systems</dc:title>
<dc:creator>Adrian, Kemo Albert</dc:creator>
<dc:contributor>kemo.adrian@gmail.com</dc:contributor>
<dc:contributor>true</dc:contributor>
<dc:contributor>Plaza, Enric, 1957-</dc:contributor>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Artificial intelligence</dc:subject>
<dc:subject>Sistemes multi-agent</dc:subject>
<dc:subject>Sistemas multi-agente</dc:subject>
<dc:subject>Multiagent systems</dc:subject>
<dc:subject>Argumentació</dc:subject>
<dc:subject>Argumentación</dc:subject>
<dc:subject>Argumentation</dc:subject>
<dc:description>En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</dc:description>
<dc:description>En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</dc:description>
<dc:description>In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</dc:description>
<dc:date>2020-09-14T09:18:48Z</dc:date>
<dc:date>2020-09-14T09:18:48Z</dc:date>
<dc:date>2020-02-27</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>9788449090806</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/669521</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:publisher>Universitat Autònoma de Barcelona</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</ow:Publication>
</rdf:RDF>
<?xml version="1.0" encoding="UTF-8" ?>
<uketd_dc:uketddc schemaLocation="http://naca.central.cranfield.ac.uk/ethos-oai/2.0/ http://naca.central.cranfield.ac.uk/ethos-oai/2.0/uketd_dc.xsd">
<dc:title>A computational model for mutual intelligibility in argumentation-based multiagent systems</dc:title>
<dc:creator>Adrian, Kemo Albert</dc:creator>
<dcterms:abstract>En l’aprenentatge simbòlic supervisat, els exemples estan relacionats amb signes mitjançant associacions estrictes. Aquestes associacions, donades per un tercer, es consideren fixades per sistemes intel·ligents que les han rebut. Els sistemes d’agents amb capacitats d’aprenentatge hereten aquest supòsit estricte de les associacions de signe-exemple.Aquesta tesi presenta un apropament diferent a les associacions signe-exemple per a sistemes d’aprenentatge multiagent, on les associacions signe-exemple són en canvi fluides i adaptatives, podent evolucionar durant la comunicació entre dos agents. Creiem, de fet, que tenir hipòtesis fortes sobre els signes associats a exemples impedeix als agents comunicar-se eficaçment en situacions d’heterogeneïtat semàntica.El nostre apropament modela elements dels camps de la semiòtica i l’antropologia per tal de permetre als agents d’un sistema multiagent canviar dinàmicament les seves associacions signe-exemple i, per tant, quan observen desacords en situacions d’heterogeneïtat semàntica, ser capaços resoldre’ls i arribar a la intel·ligibilitat mútua. Aquest treball de recerca es presenta en cinc etapes. Primer, introduïm el problema d’arribar a la intel·ligibilitat mútua en els escenaris en què s’observen desacords. La segona etapa és introduir un punt de vista semiòtic que caracteritza el nostre apropament i permet als agents comunicar-se sobre les seves associacions signe-exemple. La tercera etapa és la presentació d’un model d’argumentació que assumeixi l’aprenentatge de conceptes sense errors.La quarta etapa és estendre aquest model a un model d’argumentació tolerant als errors, que pot arribar a la intel·ligibilitat mútua alhora que s’assumeix un cert grau d’error en l’aprenentatge de conceptes. La cinquena etapa és la presentació de dues estratègies que adopten el nostre apropament i el nostre model d’argumentació: l’estratègia sistemàtica i la mandrosa. L’estratègia sistemàtica és aquella on els dos agents, quan es troben, comencen a argumentar sobre els seus conceptes per tal de resoldre els seus desacords tot d’una. L’estratègia mandrosa considera que dos agents resolen els desacords un a un, quan van apareixent durant la seva interacció.Avaluem experimentalment el rendiment del nostre model d’argumentació tolerant als errors, emprant les dues estratègies d’argumentació, i mostrem que els agents que utilitzen el nostre apropament poden resoldre qualsevol desacord o combinacions d’aquests, augmentant la seva intel·ligibilitat mútua. A més, mostrem que els agents són capaços de resoldre els seus desacords i millorar la seva intel·ligibilitat mútua en diversos dominis d’aplicació. Finalment, mostrem que el nostre model d’argumentació no requereix una gran quantitat d’intercanvi d’informació entre els agents per assolir l’estat d’intel·ligibilitat mútua.</dcterms:abstract>
<dcterms:abstract>En el aprendizaje simbólico supervisado, los ejemplos están relacionados con signos mediante asociaciones estrictas. Estas asociaciones, dadas por un tercero, se consideran fijadas por sistemas inteligentes que las han recibido. Los sistemas de agentes con capacidades de aprendizaje heredan este supuesto estricto de las asociaciones de signo-ejemplo.Esta tesis presenta un enfoque diferente a las asociaciones signo-ejemplo para sistemas de aprendizaje multiagente, donde las asociaciones signo-ejemplo son en cambio fluidas y adaptativas, pudiendo evolucionar durante la comunicación entre dos agentes. Creemos, de hecho, que tener hipótesis fuertes sobre los signos asociados a ejemplos impide a los agentes comunicarse eficazmente en situaciones de heterogeneidad semántica.Nuestro enfoque modela elementos de los campos de la semiótica y la antropología para permitir a los agentes de un sistema multiagente cambiar dinámicamente sus asociaciones signo-ejemplo y, por tanto, cuando observan desacuerdos en situaciones de heterogeneidad semántica, ser capaces resolverlos y llegar a la inteligibilidad mutua. Este trabajo de investigación se presenta en cinco etapas. Primero, introducimos el problema de llegar a la inteligibilidad mutua en los escenarios en los que se observan desacuerdos. La segunda etapa es introducir un punto de vista semiótico que caracteriza nuestro enfoque y permite a los agentes comunicarse sobre sus asociaciones signo-ejemplo. La tercera etapa es la presentación de un modelo de argumentación que asuma el aprendizaje de conceptos sin errores.La cuarta etapa es extender este modelo a un modelo de argumentación tolerante a los errores, que puede llegar a la inteligibilidad mutua a la vez que se asume un cierto grado de error en el aprendizaje de conceptos. La quinta etapa es la presentación de dos estrategias que adoptan nuestro enfoque y nuestro modelo de argumentación: la estrategia sistemática y la perezosa. La estrategia sistemática es aquella donde los dos agentes, cuando se encuentran, comienzan a argumentar sobre sus conceptos para resolver sus desacuerdos de inmediato. La estrategia perezosa considera que dos agentes resuelven los desacuerdos uno a uno, cuando van apareciendo durante su interacción.Evaluamos experimentalmente el rendimiento de nuestro modelo de argumentación tolerante a errores, utilizando las dos estrategias de argumentación, y mostramos que los agentes que utilizan nuestro enfoque pueden resolver cualquier desacuerdo o combinaciones de estos, aumentando su inteligibilidad mutua. Además, mostramos que los agentes son capaces de resolver sus desacuerdos y mejorar su inteligibilidad mutua en varios dominios de aplicación. Finalmente, mostramos que nuestro modelo de argumentación no requiere una gran cantidad de intercambio de información entre los agentes para alcanzar el estado de inteligibilidad mutua.</dcterms:abstract>
<dcterms:abstract>In supervised symbolic learning, examples are related to signs through strict associations. These associations, given by a third party, are considered as fixed by intelligent systems that received them. Agent systems with learning capabilities inherit this strict assumption on their example-sign associations. This thesis presents a different approach to example-sign associations for multiagent learning systems, where the example-sign associations are instead fluid and adaptive, being able to evolve during communication between two agents. We believe, in fact, that having strong assumptions about the signs associated with examples prevents agents to effectively communicate in situations of semantic heterogeneity. Our approach models elements from the fields of semiotics and anthropology in order to allow the agents of a multiagent system to dynamically change their example-sign associations, and therefore, when they observe disagreements in situations of semantic heterogeneity be able to resolve them and reach mutual intelligibility. This research work is presented into five stages. First, we introduce the problem of reaching mutual intelligibility in scenarios where disagreements are observed. The second stage is introducing a semiotic viewpoint that characterizes our approach and allows agents to communicate on their example-sign associations. The third stage is the presentation of an argumentation model that assumes error-free concept learning. The fourth stage is extending this model to an error-tolerant argumentation model, which can reach mutual intelligibility while assuming a certain degree of error in concept learning. The fifth stage is the presentation of two strategies adopting our approach and our argumentation model: the systematic and the lazy strategy. The systematic strategy is one where agents, upon meeting, start arguing about their concepts, in order to resolve their disagreements all at once. The lazy strategy considers two agents resolving disagreements one by one, as they arise in their interaction. We experimentally evaluate the performances of our error-tolerant argumentation model, using both argumentation strategies, and show that agents using our approach can resolve any disagreement, or combinations of them, while increasing their mutual intelligibility. Moreover, we show that the agents are able to resolve their disagreements and improve their mutual intelligibility in several application domains. Finally, we show that our argumentation model does not require extensive amount of information exchange between agents to attain the state of mutual intelligibility.</dcterms:abstract>
<uketdterms:institution>Universitat Autònoma de Barcelona</uketdterms:institution>
<dcterms:issued>2020-02-27</dcterms:issued>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:language type="dcterms:ISO639-2">eng</dc:language>
<dcterms:isReferencedBy>http://hdl.handle.net/10803/669521</dcterms:isReferencedBy>
<dcterms:hasFormat>https://www.tdx.cat/bitstream/10803/669521/6/kead1de1.pdf.txt</dcterms:hasFormat>
<uketdterms:checksum type="uketdterms:MD5">1fe7ffb71d4be74e356ab922ce589544</uketdterms:checksum>
<dc:identifier type="dcterms:URI">https://www.tdx.cat/bitstream/10803/669521/1/kead1de1.pdf</dc:identifier>
<uketdterms:checksum type="uketdterms:MD5">b7ba9124ac0f2ce82421cda934abf37a</uketdterms:checksum>
<uketdterms:embargodate>cap</uketdterms:embargodate>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Artificial intelligence</dc:subject>
<dc:subject>Sistemes multi-agent</dc:subject>
<dc:subject>Sistemas multi-agente</dc:subject>
<dc:subject>Multiagent systems</dc:subject>
<dc:subject>Argumentació</dc:subject>
<dc:subject>Argumentación</dc:subject>
<dc:subject>Argumentation</dc:subject>
<dc:subject>Ciències Experimentals</dc:subject>
<dc:identifier>9788449090806</dc:identifier>
</uketd_dc:uketddc>
Se ha omitido la presentación del registro por ser demasiado largo. Si lo desea, puede descargárselo en el enlace anterior.