LLMs4OM: Matching Ontologies with Large Language Models

2024年04月16日
  • 简介
    本文讨论本体匹配(OM)在知识集成中的重要性。通过对异构本体进行对齐,可以促进数据互操作性和知识共享。传统的OM系统通常依赖于专家知识或预测模型,对大语言模型(LLMs)的潜力进行了有限的探索。作者提出了LLMs4OM框架,这是一种评估LLMs在OM任务中有效性的新方法。该框架利用两个模块进行检索和匹配,并跨三种本体表示(概念、概念-父级和概念-子级)增强了零-shot提示。通过使用来自各个领域的20个OM数据集的全面评估,作者证明了在LLMs4OM框架下,LLMs可以匹配甚至超过传统OM系统的性能,特别是在复杂匹配场景中。研究结果突出了LLMs在OM领域中的潜力。
  • 图表
  • 解决问题
    研究如何使用大型语言模型(LLMs)来解决本体匹配(OM)问题,探索LLMs在OM任务中的潜力。
  • 关键思路
    使用LLMs4OM框架,包括检索和匹配模块,通过零样本提示跨三种本体表示来提高OM任务的效果。
  • 其它亮点
    在20个不同领域的本体匹配数据集上进行了全面的评估,结果表明LLMs在复杂匹配场景中可以达到甚至超过传统OM系统的性能。该论文的实验设计详细,使用的数据集丰富,提供了开源代码。
  • 相关研究
    与本文相关的研究包括传统OM系统和基于深度学习的OM方法,如DeepMatcher和TransOM。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论