LLM Agents in Interaction: Measuring Personality Consistency and Linguistic Alignment in Interacting Populations of Large Language Models

2024年02月05日
  • 简介
    虽然在大型语言模型(LLMs)的代理交互和个性化方面都有很多研究,但是对于语言交互对于以人物角色为条件的LLM代理行为的影响却没有得到足够的关注。这样的努力对于确保代理人保持一致性并能够进行开放性、自然的对话是非常重要的。在我们的实验中,我们通过提示将GPT-3.5与个性化配置文件相结合,使用简单的变异诱导抽样算法创建了一个双组种群的LLM代理。然后我们进行个性测试,并将代理人提交到协同写作任务中,发现不同的配置文件展现出不同程度的人格一致性和语言对话伙伴的一致性。我们的研究旨在为更好地理解LLMs之间的基于对话的交互奠定基础,并强调需要新的方法来打造强大、更像人类的LLM人物角色,以适应交互环境。
  • 图表
  • 解决问题
    论文旨在研究语言交互对于个性化大语言模型(LLMs)代理行为的影响,以确保代理人在保持一致性的同时能够参与开放、自然的对话。
  • 关键思路
    通过提示将GPT-3.5条件化为个性化配置文件,并使用简单的变异诱导抽样算法创建两组LLM代理人群体,以解决LLMs与对话伙伴之间的对话交互问题。
  • 其它亮点
    论文中的实验设计了人格测试和协作写作任务,并发现不同的个性配置文件表现出不同程度的人格一致性和语言对齐性。需要新的方法来构建更健壮、更类似人类的LLM人格,以更好地理解基于对话的LLM交互。
  • 相关研究
    最近的相关研究包括:1)个性化LLMs的研究;2)基于对话的LLMs的研究;3)LLMs的人格建模研究。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论