Knowledge Graph Large Language Model (KG-LLM) for Link Prediction

2024年03月12日
  • 简介
    本文介绍了一种新的方法——知识图谱大型语言模型框架(KG-LLM),该方法利用了自然语言处理(NLP)和知识图谱嵌入技术的进步,以提高知识图谱(KGs)中的多跳链接预测。通过将KG转换为CoT提示,该框架旨在识别和学习实体及其相互关系的潜在表示。为了展示KG-LLM框架的有效性,我们在该框架内微调了三个领先的大型语言模型(LLMs),并采用非ICL和ICL任务进行了全面评估。此外,我们还探索了该框架为LLMs提供零-shot能力以处理以前未见过的提示的潜力。我们的实验结果发现,集成ICL和CoT不仅增加了我们方法的性能,而且显著提高了模型的泛化能力,从而确保在陌生情况下进行更精确的预测。
  • 图表
  • 解决问题
    如何利用自然语言处理和知识图谱嵌入技术提高多跳链接预测的准确性和泛化能力?
  • 关键思路
    利用链式思考提示和上下文学习来构建知识图谱大型语言模型框架(KG-LLM),提高多跳链接预测的准确性和泛化能力。
  • 其它亮点
    论文提出了一种新的方法,KG-LLM框架,将知识图谱转换为链式思考提示,利用上下文学习来学习实体和它们之间的关系。作者在三个领先的大型语言模型上进行了实验,证明了该方法的有效性和泛化能力。此外,作者还探索了KG-LLM框架在零样本学习方面的潜力。
  • 相关研究
    最近的相关研究包括:《Knowledge Graph Embedding: A Survey of Approaches and Applications》、《Multi-hop Knowledge Graph Reasoning with Reward Shaping》、《Improving Multi-hop Question Answering over Knowledge Graphs using Knowledge Base Embeddings》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论