Guiding and Diversifying LLM-Based Story Generation via Answer Set Programming

2024年06月01日
  • 简介
    指导调整的大型语言模型(LLM)可以根据用户的开放性请求生成故事,但生成的故事往往在多样性方面存在局限性。旧的符号化故事生成方法(如计划)可以生成更多样化的情节大纲,但仅限于生成重新组合固定一组手工设计的角色行动模板的故事。我们是否可以将这些方法的优点结合起来,同时减轻它们的缺点?我们建议使用更高级别和抽象的符号化高级故事结构规范(通过答案集编程(ASP)实现)来指导和多样化基于LLM的故事生成。通过语义相似性分析,我们证明了我们的方法比未指导的LLM生成更多样化的故事,并通过代码摘录证明了基于ASP的大纲生成相对于完整的叙事规划具有改进的紧凑性和灵活性。
  • 作者讲解
  • 图表
  • 解决问题
    如何结合计划与大语言模型生成更加多样化的故事?
  • 关键思路
    使用高层次的抽象符号规范来指导和多样化基于大语言模型的故事生成,实现计划与大语言模型的优势互补。
  • 其它亮点
    通过语义相似性分析,论文证明了该方法产生的故事比未经指导的大语言模型更加多样化。论文还展示了基于答案集编程的故事大纲生成相比于全面的叙事规划更加紧凑和灵活的优势。
  • 相关研究
    相关研究包括:《Story Realization: Towards Reconciling Story Generation Approaches》、《Neural Story Generation with External Knowledge》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问