Large Language Models for Generative Information Extraction: A Survey

2023年12月29日
  • 简介
    信息抽取(IE)的目标是从自然语言文本中提取结构化知识(如实体、关系和事件)。近年来,生成式大型语言模型(LLM)在文本理解和生成方面表现出了卓越的能力,允许在各种领域和任务中进行泛化。因此,许多作品提出了利用LLM能力并基于生成范式提供IE任务的可行解决方案。为了对LLM在IE任务中的努力进行全面系统的审查和探索,本研究调查了这个领域最近的进展。我们首先通过将这些作品按照各种IE子任务和学习范式进行分类,提供了广泛的概述,然后我们经验性地分析了最先进的方法,并发现了LLM在IE任务中的新兴趋势。在进行了彻底的审查的基础上,我们确定了一些技术见解和有前途的研究方向,值得在未来的研究中进一步探索。我们维护一个公共存储库,并持续更新相关资源:\url{https://github.com/quqxui/Awesome-LLM4IE-Papers}。
  • 图表
  • 解决问题
    本论文旨在综述最近基于生成式大语言模型(LLMs)在信息提取(IE)任务中的应用,探索其在各个子任务和学习范式中的应用,并发现IE任务与LLMs的新趋势。
  • 关键思路
    本论文提出了一种基于生成式LLMs的IE解决方案,通过对LLMs的探索和分析,发现了一些新的技术洞见和研究方向。
  • 其它亮点
    论文通过对LLMs在各个IE子任务和学习范式中的应用进行了全面的综述和分类,提出了一种基于生成式LLMs的IE解决方案,并发现了一些新的技术洞见和研究方向。此外,作者还提供了一个公共代码库,并不断更新相关资源。
  • 相关研究
    最近的相关研究包括:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》、《RoBERTa: A Robustly Optimized BERT Pretraining Approach》、《ERNIE: Enhanced Representation through Knowledge Integration》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论