- 简介尽管大型语言模型(LLM)取得了快速进展,但由于其复杂的过程、开放式的特性以及出现问题生成的多样化设置,问题生成(QG)仍然是一个具有挑战性的问题。解决这些挑战的常见方法包括使用包含背景上下文、问题和答案的数据集,对较小的自定义模型进行微调。然而,获取适当的领域特定数据集以及适当的上下文往往比获取问题-答案对更加困难。在本文中,我们研究使用由LLM从易于获取的问题-答案对生成的合成上下文来训练QG模型。我们进行了全面的研究,回答了与在合成上下文上训练模型的性能以及它们对QG研究和应用的潜在影响相关的关键研究问题。我们的实证结果揭示:1)上下文对于QG任务至关重要,即使它们是合成的;2)微调较小的语言模型具有比提示较大的语言模型更好的性能表现的能力;3)合成上下文和真实上下文可以实现可比较的性能表现。这些发现突显了合成上下文在QG中的有效性,并为未来的进一步发展铺平了道路。
-
- 图表
- 解决问题本文试图通过使用由大型语言模型生成的合成上下文来训练问答生成模型,解决获取合适领域特定上下文数据集的困难问题。
- 关键思路使用合成上下文训练问答生成模型的效果与使用真实上下文相当,并且通过微调较小的语言模型可以获得更好的性能。
- 其它亮点本文通过实验验证了使用合成上下文训练问答生成模型的有效性,并且提出了微调较小语言模型的方法来获得更好的性能。实验使用的数据集是现有的问题-答案对数据集,作者还开源了他们的代码。
- 最近的相关研究包括使用预训练语言模型进行问答生成、使用注意力机制来生成问题、使用强化学习来生成问题等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流