- 简介自动从长文本生成演示文稿是一个具有挑战性和有用的问题。与平面摘要不同,演示文稿需要具有更好的非线性叙述,即幻灯片的内容可以来自给定文档的不同和非连续部分。然而,很难将这种非线性内容映射到幻灯片中,并确保内容忠实于文档。LLM容易出现幻觉,并且随着输入文档的长度,性能会下降。因此,我们提出了一种新颖的基于图形的解决方案,其中我们从输入文档中学习图形,并使用图形神经网络和LLM的组合来生成带有每个幻灯片内容归属的演示文稿。我们进行了彻底的实验,以展示我们的方法相比于直接使用LLM来完成此任务的优点。
- 图表
- 解决问题自动生成演示文稿是一个具有挑战性和实用性的问题,需要解决非线性映射的内容到幻灯片的问题。
- 关键思路该论文提出了一种基于图形的解决方案,通过学习输入文档中的图形,并结合图形神经网络和LLM生成演示文稿,并为每个幻灯片分配内容。
- 其它亮点实验结果表明,与直接使用LLMs相比,该方法具有更好的性能。该论文还介绍了使用的数据集和实验设计,并提出了未来的研究方向。
- 与该论文相关的研究包括:《Neural Text Generation in Stories Using Entity Representations as Context》、《Deep Reinforcement Learning for Dialogue Generation》等。
沙发等你来抢
去评论
评论
沙发等你来抢