Virtual Personas for Language Models via an Anthology of Backstories

2024年07月09日
  • 简介
    大型语言模型(LLMs)是从数百万不同作者创作的庞大文本库中训练出来的,反映了人类特征的巨大多样性。虽然这些模型具有用作行为研究中人类主体的潜力,但以往的努力在引导模型响应以匹配个别人类用户方面受到了限制。在这项工作中,我们介绍了“文集”(Anthology),这是一种通过利用开放式生命叙述(我们称之为“背景故事”)来使LLMs适应特定虚拟人物的方法。我们展示了我们的方法增强了实验结果的一致性和可靠性,同时确保更好地代表多样化的亚群体。在美国皮尤研究中心(Pew Research Center)的美国趋势小组(ATP)进行的三项代表全国人类的调查中,我们证明了文集实现了高达18%的改进,匹配人类受访者的响应分布,以及27%的一致性指标提高。我们的代码和生成的背景故事可在https://github.com/CannyLab/anthology 上获得。
  • 图表
  • 解决问题
    Anthology试图通过利用虚拟人物的生活故事,将大型语言模型(LLMs)调整到特定的虚拟人物,从而提高模型响应与人类用户一致性的问题。
  • 关键思路
    Anthology利用开放式的生活故事来调整LLMs,以匹配特定虚拟人物的响应,从而提高模型与人类用户的一致性和可靠性。
  • 其它亮点
    Anthology方法在三个Pew Research Center的美国趋势面板(ATP)的全国代表性人类调查中得到了验证。实验结果显示,使用Anthology方法可以使模型响应分布与人类受访者的匹配度提高18%,一致性指标提高27%。研究代码和生成的生活故事可在https://github.com/CannyLab/anthology上获得。
  • 相关研究
    最近的相关研究包括使用不同的方法来调整LLMs以匹配人类用户,例如使用对抗性训练。相关论文包括“Improving Language Understanding by Generative Pre-Training”和“Towards Controlled Generation of Text”。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问