- 简介大型语言模型(LLMs)是从数百万不同作者创作的庞大文本库中训练出来的,反映了人类特征的巨大多样性。虽然这些模型具有用作行为研究中人类主体的潜力,但以往的努力在引导模型响应以匹配个别人类用户方面受到了限制。在这项工作中,我们介绍了“文集”(Anthology),这是一种通过利用开放式生命叙述(我们称之为“背景故事”)来使LLMs适应特定虚拟人物的方法。我们展示了我们的方法增强了实验结果的一致性和可靠性,同时确保更好地代表多样化的亚群体。在美国皮尤研究中心(Pew Research Center)的美国趋势小组(ATP)进行的三项代表全国人类的调查中,我们证明了文集实现了高达18%的改进,匹配人类受访者的响应分布,以及27%的一致性指标提高。我们的代码和生成的背景故事可在https://github.com/CannyLab/anthology 上获得。
- 图表
- 解决问题Anthology试图通过利用虚拟人物的生活故事,将大型语言模型(LLMs)调整到特定的虚拟人物,从而提高模型响应与人类用户一致性的问题。
- 关键思路Anthology利用开放式的生活故事来调整LLMs,以匹配特定虚拟人物的响应,从而提高模型与人类用户的一致性和可靠性。
- 其它亮点Anthology方法在三个Pew Research Center的美国趋势面板(ATP)的全国代表性人类调查中得到了验证。实验结果显示,使用Anthology方法可以使模型响应分布与人类受访者的匹配度提高18%,一致性指标提高27%。研究代码和生成的生活故事可在https://github.com/CannyLab/anthology上获得。
- 最近的相关研究包括使用不同的方法来调整LLMs以匹配人类用户,例如使用对抗性训练。相关论文包括“Improving Language Understanding by Generative Pre-Training”和“Towards Controlled Generation of Text”。


提问交流