Revision/Révision in areas (2024-03-15)
Line van den Berg, Manuel Atencia, Jérôme Euzenat, Raising awareness without disclosing truth, Annals of mathematics and artificial intelligence 91(4):431-464, 2023
Agents use their own vocabularies to reason and talk about the world. Public signature awareness is satisfied if agents are aware of the vocabularies, or signatures, used by all agents they may, eventually, interact with. Multi-agent modal logics and in particular Dynamic Epistemic Logic rely on public signature awareness for modeling information flow in multi-agent systems. However, this assumption is not desirable for dynamic and open multi-agent systems because (1) it prevents agents to use unique signatures other agents are unaware of, (2) it prevents agents to openly extend their signatures when encountering new information, and (3) it requires that all future knowledge and beliefs of agents are bounded by the current state. We propose a new semantics for awareness that enables us to drop public signature awareness. This semantics is based on partial valuation functions and weakly reflexive relations. Dynamics for raising public and private awareness are then defined in such a way as to differentiate between becoming aware of a proposition and learning its truth value. With this, we show that knowledge and beliefs are not affected through the raising operations.
Awareness, Raising awareness, Dynamic epistemic logic, Partial valuations, Multi-agent systems
Line van den Berg, Manuel Atencia, Jérôme Euzenat, Unawareness in multi-agent systems with partial valuations, in: Proc. 10th AAMAS workshop on Logical Aspects of Multi-Agent Systems (LAMAS), Auckland (NZ), 2020
Public signature awareness is satisfied if agents are aware of the vocabulary, propositions, used by other agents to think and talk about the world. However, assuming that agents are fully aware of each other's signatures prevents them to adapt their vocabularies to newly gained information, from the environment or learned through agent communication. Therefore this is not realistic for open multi-agent systems. We propose a novel way to model awareness with partial valuations that drops public signature awareness and can model agent signature unawareness, and we give a first view on defining the dynamics of raising and forgetting awareness on this framework.
Awareness, Dynamic Epistemic Logic, Partial valuations, Multi-agent systems
Jérôme Euzenat, Interaction-based ontology alignment repair with expansion and relaxation, in: Proc. 26th International Joint Conference on Artificial Intelligence (IJCAI), Melbourne (VIC AU), pp185-191, 2017
Agents may use ontology alignments to communicate when they represent knowledge with different ontologies: alignments help reclassifying objects from one ontology to the other. These alignments may not be perfectly correct, yet agents have to proceed. They can take advantage of their experience in order to evolve alignments: upon communication failure, they will adapt the alignments to avoid reproducing the same mistake. Such repair experiments had been performed in the framework of networks of ontologies related by alignments. They revealed that, by playing simple interaction games, agents can effectively repair random networks of ontologies. Here we repeat these experiments and, using new measures, show that previous results were underestimated. We introduce new adaptation operators that improve those previously considered. We also allow agents to go beyond the initial operators in two ways: they can generate new correspondences when they discard incorrect ones, and they can provide less precise answers. The combination of these modalities satisfy the following properties: (1) Agents still converge to a state in which no mistake occurs. (2) They achieve results far closer to the correct alignments than previously found. (3) They reach again 100% precision and coherent alignments.
The results reported in this paper for operators addjoin and refadd are not accurate, due to a software error. The results reported were worse than they should have been. Updated results can be found in [
20180308-NOOR], [
20180311-NOOR] and [
20180529-NOOR].
Jérôme Euzenat, Crafting ontology alignments from scratch through agent communication, in: Proc. 20th International Conference on Principles and practice of multi-agent systems (PRIMA), Nice (FR), (Bo An, Ana Bazzan, João Leite, Serena Villata, Leendert van der Torre (eds), Proc. 20th International Conference on Principles and practice of multi-agent systems (PRIMA), Lecture notes in computer science 10621, 2017), pp245-262, 2017
Agents may use different ontologies for representing knowledge and take advantage of alignments between ontologies in order to communicate. Such alignments may be provided by dedicated algorithms, but their accuracy is far from satisfying. We already explored operators allowing agents to repair such alignments while using them for communicating. The question remained of the capability of agents to craft alignments from scratch in the same way. Here we explore the use of expanding repair operators for that purpose. When starting from empty alignments, agents fails to create them as they have nothing to repair. Hence, we introduce the capability for agents to risk adding new correspondences when no existing one is useful. We compare and discuss the results provided by this modality and show that, due to this generative capability, agents reach better results than without it in terms of the accuracy of their alignments. When starting with empty alignments, alignments reach the same quality level as when starting with random alignments, thus providing a reliable way for agents to build alignment from scratch through communication.
Ontology alignment, Alignment repair, Cultural knowkedge evolution, Agent simulation, Coherence, Network of ontologies
Jérôme Euzenat, Revision in networks of ontologies, Artificial intelligence 228:195-216, 2015
Networks of ontologies are made of a collection of logic theories, called ontologies, related by alignments. They arise naturally in distributed contexts in which theories are developed and maintained independently, such as the semantic web. In networks of ontologies, inconsistency can come from two different sources: local inconsistency in a particular ontology or alignment, and global inconsistency between them. Belief revision is well-defined for dealing with ontologies; we investigate how it can apply to networks of ontologies. We formulate revision postulates for alignments and networks of ontologies based on an abstraction of existing semantics of networks of ontologies. We show that revision operators cannot be simply based on local revision operators on both ontologies and alignments. We adapt the partial meet revision framework to networks of ontologies and show that it indeed satisfies the revision postulates. Finally, we consider strategies based on network characteristics for designing concrete revision operators.
p201. Clause 4. of the definition of a closure is incorrect. The relation was supposed to be set in the reverse direction (the standard definition is an equivalence). This mistake does not affect results.
Jérôme Euzenat, First experiments in cultural alignment repair, in: Proc. 3rd ESWC workshop on Debugging ontologies and ontology mappings (WoDOOM), Hersounisos (GR), pp3-14, 2014
Alignments between ontologies may be established through agents holding such ontologies attempting at communicating and taking appropriate action when communication fails. This approach has the advantage of not assuming that everything should be set correctly before trying to communicate and of being able to overcome failures. We test here the adaptation of this approach to alignment repair, i.e., the improvement of incorrect alignments. For that purpose, we perform a series of experiments in which agents react to mistakes in alignments. The agents only know about their ontologies and alignments with others and they act in a fully decentralised way. We show that such a society of agents is able to converge towards successful communication through improving the objective correctness of alignments. The obtained results are on par with a baseline of a priori alignment repair algorithms.
The results of [
20140305-NOOR] are not correct due to various software bugs and the generated reference alignments. New results are [
20180308-NOOR] and [
20170208b-NOOR]. Conclusions hold for the former, they are more favorable to agents for the latter.
Ontology alignment, alignment repair, cultural knowkedge evolution, agent simulation, coherence, network of ontologies
Jérôme Euzenat, First experiments in cultural alignment repair (extended version), in: Valentina Presutti, Eva Blomqvist, Raphaël Troncy, Harald Sack, Ioannis Papadakis, Anna Tordai (eds), ESWC 2014 satellite events revised selected papers, Springer Verlag, Heidelberg (DE), 2014, pp115-130
Alignments between ontologies may be established through agents holding such ontologies attempting at communicating and taking appropriate action when communication fails. This approach, that we call cultural repair, has the advantage of not assuming that everything should be set correctly before trying to communicate and of being able to overcome failures. We test here the adaptation of this approach to alignment repair, i.e., the improvement of incorrect alignments. For that purpose, we perform a series of experiments in which agents react to mistakes in alignments. The agents only know about their ontologies and alignments with others and they act in a fully decentralised way. We show that cultural repair is able to converge towards successful communication through improving the objective correctness of alignments. The obtained results are on par with a baseline of a priori alignment repair algorithms.
The results of [
20140305-NOOR] are not correct due to various software bugs and the generated reference alignments. New results are [
20180308-NOOR] and [
20170208b-NOOR]. Conclusions hold for the former, they are more favorable to agents for the latter.
Ontology alignment, Alignment repair, Cultural knowkedge evolution, Agent simulation, Coherence, Network of ontologies
Jérôme Euzenat, Représentations de connaissance: de l'approximation à la confrontation, Habilitation à diriger des recherches, Université Joseph Fourier, Grenoble (FR), janvier 1999
référence INRIA TH-015
Un formalisme de représentation de connaissance a pour but de permettre la modélisation d'un domaine particulier. Bien entendu, il existe divers langages de ce type et, au sein d'un même langage, divers modèles peuvent représenter un même domaine. Ce mémoire est consacré à l'étude des rapports entre de multiples représentations de la même situation. Il présente les travaux de l'auteur entre 1992 et 1998 en progressant de la notion d'approximation, qui fonde la représentation, vers la confrontation entre les diverses représentations. Tout d'abord la notion d'approximation au sein des représentations de connaissance par objets est mise en avant, en particulier en ce qui concerne l'ensemble des mécanismes tirant parti de la structure taxonomique (classification, catégorisation, inférence de taxonomie). À partir de la notion de système classificatoire qui permet de rendre compte de ces mécanismes de manière unique on montre comment un système de représentation de connaissance peut être construit. Le second chapitre introduit la possibilité de tirer parti de multiples taxonomies (sur le même ensemble d'objets) dans un système de représentation de connaissance. La multiplicité des représentations taxonomiques est alors introduite en tant que telle et justifiée. Ces multiples taxonomies sont replacées dans le cadre des systèmes classificatoires présentés auparavant. La notion de granularité, qui fait l'objet du troisième chapitre, concerne la comparaison de représentations diverses de la même situation sachant qu'elles ont un rapport très particulier entre elles puisqu'elles représentent la même situation sous différentes granularités. À la différence des autres chapitres, celui-ci n'est pas situé dans le cadre des représentations de connaissance par objets mais dans celui des algèbres de relations binaires utilisées pour représenter le temps et l'espace. Le quatrième chapitre, enfin, va vers la confrontation des différentes représentations de manière à en tirer le meilleur parti (obtenir une représentation consensuelle ou tout simplement une représentation consistante). Le but des travaux qui y sont présentés est de développer un système d'aide à la construction collaborative de bases de connaissance consensuelles. À cette fin, les utilisateurs veulent mettre dans une base commune (qui doit être consistante et consensuelle) le contenu de leurs bases de connaissance individuelles. Pour cela, deux problèmes particuliers sont traités : la conception d'un mécanisme de révision, pour les représentations de connaissance par objets, permettant aux utilisateurs de traiter les problèmes d'inconsistance et la conception d'un protocole de soumission de connaissance garantissant l'obtention d'une base commune consensuelle. Cet aperçu partiel des travaux possibles dans l'étude des relations entre représentations est limité, mais il met en évidence le caractère non impératif des solutions proposées qui s'appliquent bien au cadre où le modélisateur interagit avec le système de représentation.
représentation de connaissance, approximation, bases de connaissance, modélisation, représentation par objets, point de vue, passerelle, classification, catégorisation, inférence de taxonomie, granularité, représentation temporelle, algèbre de relations binaires, révision, consensus, TROEPS, CO4
Isabelle Crampé, Jérôme Euzenat, Object knowledge base revision, in: Proc. 13th european conference on artificial intelligence (ECAI), Brighton (UK), pp3-7, 1998
A revision framework for object-based knowledge representation languages is presented. It is defined by adapting logical revision to objects and characterised both semantically and syntactically. The syntactic analysis of revision shows that it can be easily interpreted in terms of object structures (e.g. moving classes or enlarging domains). This is the source of the implementation and it enables users to be involved in the revision process.
Amedeo Napoli, Isabelle Crampé, Roland Ducournau, Jérôme Euzenat, Michel Leclère, Philippe Vismara, Aspects actuels des représentations de connaissances par objets et de la classification, in: Actes 6e journées nationalesPRC-GDR intelligence artificielle , Grenoble (FR), pp289-314, 1997
Cet article présente certains thèmes de recherches étudiés par les membres du groupe "Objets et classification" du PRC-IA. Ces thèmes concernent essentiellement la théorie des systèmes de représentation de connaissances par objets (RCPO), la révision d'une base de connaissances dans les systèmes de RCPO, la classification de classes et d'instances, et la mise en oeuvre d'applications, illustrée ici par le système RESYN. Les travaux présentés montrent une certaine continuité avec les préoccupations des membres du groupe depuis qu'il existe. L'article se termine par la présentation d'éléments de définition d'un système de RCPO, et de perspectives de recherches découlant des thèmes explicités dans l'article.
Isabelle Crampé, Jérôme Euzenat, Révision interactive dans une base de connaissance à objets, in: Actes 10e congrèsAFCET-AFIA-ARC-INRIA sur Reconnaissance des Formes et Intelligence Artificielle (RFIA), Rennes (FR), pp615-623, 1996
Lors de la construction d'une base de connaissance, la présence d'une inconsistance peut laisser l'utilisateur démuni car il ne peut embrasser l'étendue de la base. Afin de résoudre ce problème, nous proposons un outil lui indiquant les solutions possibles. Les principes de la révision en logique s'appliquent à cette problématique, mais des résultats plus satisfaisants sont envisageables. En effet, afin d'obtenir des solutions minimisant la perte de connaissance, nous allons nous appuyer sur les structures impliquées dans les représentations par objet (ordre de spécialisation, inclusion des domaines). Par ailleurs, la prise en compte des préférences de l'utilisateur et de son statut permet d'organiser la recherche de solutions.
révision, représentation de connaissance par objet, interaction système-utilisateur
Isabelle Crampé, Jérôme Euzenat, Fondements de la révision dans un langage d'objets simple, in: Actes 3e journées sur langages et modèles à objets (LMO), Leysin (CH), pp134-149, 1996
La révision d'une base de connaissance, rendue inconsistante suite à l'ajout d'une assertion, consiste à la rendre consistante en la modifiant. Résoudre ce problème est très utile dans l'assistance aux utilisateurs de bases de connaissance et s'appliquerait avec profit dans le contexte des objets. Afin de poser les bases d'un tel mécanisme, une représentation par objets minimale est formalisée. Elle est dotée de mécanismes d'inférence et d'une caractérisation syntaxique de l'inconsistance et de l'incohérence. La notion de base de connaissance révisée est définie sur ce langage. Un critère de minimalité, à la fois sémantique et syntaxique, permet de définir les bases révisées les plus proches de la base initiale.
Isabelle Crampé, Jérôme Euzenat, Fondements de la révision dans un langage d'objets simple, Rapport de recherche 3060, INRIA Rhône-Alpes, Grenoble (FR), 46p., décembre 1996
L'ajout d'une connaissance dans une base de connaissance peut provoquer une inconsistance. La révision consiste alors à modifier la base pour la rendre consistante avec la dernière connaissance à ajouter. Résoudre ce problème est très utile dans l'assistance aux utilisateurs de bases de connaissance. Afin de poser les bases d'un tel mécanisme pour les objets, une représentation par objets minimale est formalisée. Elle est dotée de mécanismes d'inférence et d'une caractérisation syntaxique de l'inconsistance et de l'incohérence. La notion de base de connaissance révisée est définie sur ce langage. Un critère de minimalité, à la fois sémantique et syntaxique, permet de définir les bases révisées les plus proches de la base initiale.
Révision, minimisation des modifications, représentation de connaissance par objets