- 简介真实世界信息的动态性要求大型语言模型(LLMs)进行高效的知识编辑(KE)以进行知识更新。然而,目前的KE方法通常仅处理(主题,关系,客体)三元组,忽略了上下文信息和不同知识之间的关系。这样的编辑方法可能会遇到不确定的编辑边界,使得许多相关知识处于模糊状态:以前可以回答的查询现在无法可靠地回答。在本文中,我们通过引入一个理论框架来分析这个问题,该框架强调了一个被忽视的知识集合,这些知识保持不变,并在编辑过程中帮助知识推断,我们称之为“推断锚点”。我们进一步通过提出一种新的基于事件的知识编辑任务来解决这个问题,该任务将事实与事件描述配对。这个任务不仅体现了更接近真实世界编辑场景的模拟,而且是一个更具逻辑合理性的设置,隐含地定义了推断锚点来解决不确定的编辑边界问题。我们通过实验证明了基于事件的编辑优于现有设置,可以解决编辑模型中的不确定性,并创建了一个新的基准数据集EvEdit,该数据集源自CounterFact数据集。此外,虽然我们观察到基于事件的设置对现有方法来说具有显著的挑战性,但我们提出了一种新的方法Self-Edit,展示了更强的性能,实现了55.6%的一致性改进,同时保持了生成的自然性。
- 图表
- 解决问题本文试图解决知识编辑中存在的不确定性边界问题,提出了一种基于事件的知识编辑方法。
- 关键思路本文提出了一种新的知识编辑任务,即基于事件的知识编辑,通过将事实与事件描述配对来更好地模拟现实编辑场景,同时定义了“推演锚点”来解决不确定性边界问题。
- 其它亮点本文提出的基于事件的知识编辑方法在解决编辑模型中的不确定性方面表现出优越性,同时提出了一个新的基准数据集EvEdit,并提出了一种更有效的方法Self-Edit。实验结果表明,Self-Edit在保持生成自然性的同时,提高了55.6%的一致性。
- 在知识编辑领域,已有一些相关研究,例如OpenKE、KnowLife、KBEditor等。
沙发等你来抢
去评论
评论
沙发等你来抢