- 简介大型语言模型(LLMs)在解决各种任务方面取得了显著的成就。最近,LLMs存储、检索和推理符号知识的能力引起了广泛关注,展示了它们理解结构化信息的潜力。然而,目前尚不清楚LLMs是否能够理解描述逻辑(DL)本体论。在这项工作中,我们从语法和语义方面覆盖6个代表性任务,经验性地分析了LLMs理解DL-Lite本体论的能力。通过广泛的实验,我们展示了LLMs在理解DL-Lite本体论方面的有效性和局限性。我们发现LLMs可以理解概念和角色的形式语法和模型论语义。然而,LLMs在理解TBox NI传递性和处理具有大型ABox的本体论方面存在困难。我们希望我们的实验和分析能够提供更多关于LLMs的见解,并激发建立更忠实的知识工程解决方案的灵感。
-
- 图表
- 解决问题分析大型语言模型(LLMs)是否能够理解DL-Lite本体,以及它们在语法和语义方面的能力和局限性。
- 关键思路通过实验,论文证明了LLMs能够理解DL-Lite本体的形式语法和模型论语义,但在处理具有大型ABox和TBox NI传递性的本体时存在困难。
- 其它亮点论文使用了6个代表性任务进行实验,探究了LLMs在理解DL-Lite本体方面的能力和局限性。实验结果显示,LLMs在处理形式语法和模型论语义方面表现出色,但在处理具有大型ABox和TBox NI传递性的本体时表现较差。
- 近期的相关研究包括使用LLMs进行知识推理和符号推理的工作,如《Transformers as Soft Reasoners over Language》和《How Can We Know What Language Models Know?》。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流