Extraction d'axiomes et de règles logique à partir de définitions de Wikipédia en langage naturel
Le Web sémantique repose sur la création de bases de connaissances complexes reliant les données du Web. Notamment, la base de connaissance DBpedia a été créée et est considérée aujourd’hui comme le « noyau du réseau Linked Open Data ». Cependant DBpedia repose sur une ontologie très peu riche en définitions de concepts et ne prend pas en compte l’information textuelle de Wikipedia. L’ontologie de DBpedia contient principalement des liens taxonomiques et des informations sur les instances. L’objectif de notre recherche est d’interpréter le texte en langue naturelle de Wikipédia, afin d’enrichir DBpedia avec des définitions de classes, une hiérarchie de classes (relations taxonomiques) plus riche et de nouvelles informations sur les instances. Pour ce faire, nous avons recours à une approche basée sur des patrons syntaxiques implémentés sous forme de requêtes SPARQL. Ces patrons sont exécutés sur des graphes RDF représentant l’analyse syntaxique des définitions textuelles extraites de Wikipédia. Ce travail a résulté en la création de AXIOpedia, une base de connaissances expressive contenant des axiomes complexes définissant les classes, et des triplets rdf:type reliant les instances à leurs classes.
Pour plus d'informations, cliquez ici
Publications
2016 | Automatic Extraction of Axioms from Wikipedia Using SPARQL Lara Haidar-Ahmad, Amal Zouaq, Michel Gagnon |
2016 | Entity Typing and Linking using SPARQL Patterns and DBpedia - Winner of the Open Knowledge Extraction challenge ESWC-16 Open Knowledge Extraction Challenge, Heraklion, Greece |