Robin Lamarche-Perrin - Argumentation, contexte et alignement d'ontologies - Résultats

De Ensiwiki
Aller à : navigation, rechercher


Argumentation, contexte et alignement d'ontologies

Labo LIG et INRIA
Equipe EXMO
Encadrants jerome.euzenat@inrialpes.fr

Etudiant


Robin Lamarche-Perrin

Introduction

Ontologies et alignements


Le Web Sémantique propose différents outils de formalisation permettant de rendre les ressources du Web accessibles aux agents logiciels. A ce titre, une ontologie est un modèle de représentation d'un champs de la connaissance. Les agents peuvent les utiliser comme base pour raisonner ou échanger de l'information structurée. OWL (Web Ontology Language, un dialect XML) est un exemple de langage descriptif permettant de construire de telles ontologies.

Dans de nombreux cas, les ontologies utilisées sont hétérogènes. Elles proposent différents modèles de représentation pour un même champ de la connaissance. Afin de les rendre interopérables, nous cherchons à mettre correspondance leurs différents termes. De nombreux algorithmes utilisant diverses techniques permettent de produire ces correspondances. Ils établissent en quelque sorte un moyen de « traduction » entre des vocabulaires hétérogènes.

Cette activité s'appelle l'alignement d'ontologie et constitue une part importante du travail de l'équipe EXMO.

Système multi-agents et argumentation


Afin de procéder au dialogue, des agents doivent convenir d'alignements entre leurs ontologies hétérogènes. Ces agents peuvent cependant avoir des préférences conflictuelles quant au choix des correspondances. Comment résoudre ce conflit et déterminer quels alignements seront utilisés ?

La théorie de l'argumentation, introduite en 1995 par Phan Minh Dung [1], donne une solution à ce problème. Elle formalise le cadre d'une négociation entre les agents à propos des correspondances. La première partie de nos travaux a consisté à se familiariser avec cette théorie, ainsi que celles qui ont été développées par-dessus, et à comprendre comment elle est utilisée pour résoudre le problème de l'alignement d'ontologie dans le cas des systèmes multi-agents (cf. État de l'art).

Contexte


Nous remarquons que les travaux présentés précédemment fondent le choix des agents, lors de l'argumentation, sur des critères de mise en correspondance formelle uniquement. Or, nous aimerions que les alignements soient choisis selon des critères spécifiques au système multi-agents lui-même. Nous voulons donc formaliser cette notion de contexte d'argumentation et décrire comment elle peut avoir un impact sur le choix des alignements.

Nous proposons deux solutions compatibles pour répondre à cette problématique (cf. Contributions). La première définit une méthode de mise en correspondance utilisant les données effectivement échangées par les agents. La méthode ainsi définie est une méthode contextuelle, elle prend en compte les données du dialogues et donc sa finalité. La seconde solution formalise le processus de négociation et y introduit un historique de l'argumentation. En gardant en mémoire les négociations passées, les agents peuvent affiner leurs choix en fonction des résultats pendant le dialogue. Cet historique fourni donc un contexte préliminaire aux négociations futures.


Enfin, ces travaux sont restés entièrement théoriques et aucune évaluation empirique n'est proposée ici (cf. Conclusion). Cela constitue évidemment des perspectives d'études et de recherches futures pour analyser l'impact qu'ont ces travaux en pratique.

Etat de l'art


De nombreuses théories s'intéressent aux systèmes d'argumentation. Un système d'argumentation est un ensemble d'arguments qui s'attaquent ou qui se défendent mutuellement. Nous en donnons un exemple simple :

TER Image1 Lamarche-Perrin.jpg
Ici, l'argument A2 attaque l'argument A1. Il est lui-même attaqué par l'argument A3.




Le principe fondamental de l'argumentation, énoncé par Phan Minh Dung [1], consiste à définir en fonction de ces relations d'attaques des positions d'argumentation défendables. De telles positions sont des ensembles d'arguments avec les propriétés suivantes :

  • cohérence interne à l'ensemble lui-même
  • stabilité vis-à-vis des autres arguments du système



TER Image2 Lamarche-Perrin.jpg
Comme l'argument A3 attaque l'argument A2, l'extension préférée est capable de se défendre vis-à-vis de l'ensemble du système.




Nous nommons ces ensembles des extensions préférées. La première utilisation de cette théorie au service de l'alignement d'ontologies est proposée par Loredana Laera [4]. Les arguments sont alors créés par des algorithmes de mise en correspondances qui soutiennent ou non une correspondance donnée. Les extensions préférées déterminent ensuite quelles correspondances seront effectivement sélectionnées par le système multi-agents.

De nombreux ajouts ont été fait à cette théorie. Nous ne nous y étendons pas ici. Pour faire simple, ils apportent différents moyens de contrôle au graphe formés par les arguments (préférences sur les arguments ou sur des catégories d'arguments [2] et [3], coopération des techniques et degrés de confiance [5], fréquence d'apparition des correspondances [6]).

Contributions

Problématique


Lors de la négociation, les agents utilisent le résultat des différentes techniques de mise en correspondance pour argumenter. Nous constatons que ces techniques sont issues de considérations formelles sur les ontologies. Elles ne sont pas spécifiques à un système multi-agents donné et ne prennent pas en compte différents éléments contextuels comme le thème de la conversation, les différents objectifs des agents, etc.

Nos travaux consistent à formaliser le contexte du dialogue et à définir l'impact qu'a ce contexte sur l'argumentation.

Arguments contextuels


Nous travaillons ici sur les individus, c'est-à-dire les « instanciations » des ontologies (par analogie avec le modèle objet). En effet, l'étude des données possédés par les agents en présence permet de produire des correspondances. Ces correspondances sont ainsi liées au contexte d'utilisation des ontologies et sont donc spécifiques à un ensemble d'agents donné.

Nous procédons à ce que l'on peut appeler une projection d'ontologies sur l'espace des données (via les individus qu'elles formalisent). L'intersection de ces projections permet de définir des alignements sur les formes annotant ces données, c'est-à-dire les ontologies.


TER Image3 Lamarche-Perrin.jpg
Schéma de la projection d'ontologies.




Historique de l'argumentation


Dans cette section, nous formalisons un processus de négociation étape par étape. A chaque étape une correspondance est discutée et les agents gardent en mémoire le résultat du processus (est-ce que la correspondance a été validée ou rejetée).

Or, nous constatons que les correspondances peuvent agir à leur tour sur le système d'argumentation (par exemple lorsque deux correspondances, choisies simultanément, définissent un modèle inconsistant, alors elles argumentent en fait l'une contre l'autre). De ce fait, les décisions prisent par le système multi-agents influence les décisions prisent lors des étapes suivantes. Nous construisons ainsi des alignements cohérents avec les choix successifs des agents.

De plus, nous pouvons lors du dialogue analyser l'efficacité des alignements. En notant les correspondances, nous pouvons affiner ces alignements en fonction de leur utilisation effective. Le processus décrit ici permet d'améliorer les alignements via un historique des phases d'argumentation et des phases de dialogue.

Conclusion


Nos travaux ne proposent aucune méthode d'évaluation des nos solutions. Nous formalisons des outils qui s'inscrivent parfaitement dans la continuité des recherches précédentes, mais nous ne connaissons pas leur réel impact sur l'argumentation au sein des systèmes multi-agents.

Des outils sont disponible sur le Web pour comparer les différents algorithmes d'alignement. OAEI (Ontology Alignment Evaluation Initiative) donne un cadre à cette évaluation et nous pourrions utiliser ce cadre pour tester nos propres méthodes. Pour la première que nous présentons, l'évaluation consisterait à :

  • implémenter les règles de mise en correspondance entre les individus
  • travailler avec des agents disposant effectivement d'une grande quantité de données
  • comparer les alignements produits par ces agents lorsqu'ils utilisent des arguments contextuels (en faisant varier l'espace des données) avec les choix n'utilisant que des arguments formels

Pour la seconde solution, le protocole d'évaluation consisterait à :

  • expliciter les relations d'attaque et de défense entre les correspondances
  • implémenter le processus de négociation proposé dans nos travaux
  • définir des critères d'efficacité pour juger des alignements lors de leur utilisation
  • définir un algorithme d'apprentissage qui utilise ces jugements lors des négociations suivantes


Ces travaux pratiques constituent les premières perspectives de nos travaux théoriques. Sans eux nous ne pouvons être sûr que nos propositions sont fécondes. Ensuite, de nombreux modes d'utilisation de nos méthodes sont envisageable afin de les affiner et de les préciser.

Bibliographie


[1] Phan Minh Dung, On the Acceptability of Arguments and its Fundamental Role in Nonmonotonic Reasoning, Logic Programming and n-Person Games, Artificial Intelligence 77(2):321-358, 1995

[2] Yannis Dimopoulos, Pavlos Moraitis, Leila Amgoud, Theoretical and Computational Properties of Preference-based Argumentation, European Conference on Artificial Intelligence (ECAI 2008), Patras, Grèce, 21/07/08-25/07/08, IOS Press, p. 463-467, 2008

[3] Trevor Bench-Capon, Sylvie Doutre, Paul Dunne, Audiences in Argumentation Frameworks, Artificial Intelligence, Elsevier, Vol. 171 N. 1, p. 42-71, janvier 2007

[4] Loredana Laera, Ian Blacoe, Valentina Tamma, Terry Payne, Jérôme Euzenat, Trevor Bench-Capon, Argumentation over Ontology Correspondences in MAS, in: Proc. 6th International conference on Autonomous Agents and Multiagent Systems (AAMAS), Honolulu (HA US), pp1285-1292, 2007

[5] Cássia Trojahn dos Santos, Márcia Cristina Moraes, Paulo Quaresma, Renata Vieira, A Cooperative Approach for Composite Ontology Mapping, Journal on Data Semantics 10:237-263, 2008

[6] Antoine Isaac, Cassia Trojahn, Shenghui Wang, Paulo Quaresma, Using quantitative aspects of alignment generation for argumentation on mappings, Proc. ISWC-2008 Ontology latching workshop, pp49-60, Karlsruhe (DE), 2008

Documents additionnels