每天 0 点更新数据,热度根据全网互动数计算
最热 · 今天
最新
Aligning LLM Agents by Learning Latent Preference from User Edits
Ge Gao,
Alexey Taymanov,
Eduardo Salinas,
...
2024年04月23日
我们研究基于用户编辑的语言代理互动学习。在像写作助手这样的典型设置中,用户与语言代理交互以生成给定上下文的响应,并可以选择编辑代理响应以根据其潜在偏好进行个性化,同时提高正确性。编辑反馈自然生成,因此是改善代理与用户偏好一致性以及降低用户编辑成本的合适候选方法。我们提出了一个学习框架PRELUDE,它基于历史编辑数据推断用户潜在偏好的描述,并使用它来定义驱动未来响应生成的提示策略。这避免了对代理进行微调,这是昂贵的,难以随着用户数量的增加而扩展,并且甚至可能降低其在其他任务上的性能。此外,学习描述性偏好可以提高可解释性,使用户能够查看和修改学习到的偏好。然而,用户偏好可能很复杂,并且可能因上下文而异,这使得学习变得具有挑战性。为了解决这个问题,我们提出了一个名为CIPHER的简单而有效的算法,它利用大型语言模型(LLM)根据用户编辑推断给定上下文的用户偏好。在未来,CIPHER从历史记录中检索推断的偏好,并形成用于响应生成的聚合偏好。我们引入了两个交互环境——摘要和电子邮件写作,使用GPT-4模拟用户进行评估。我们与直接检索用户编辑但不学习描述性偏好的算法以及学习上下文不可知偏好的算法进行比较。在两个任务上,CIPHER实现了最低的编辑距离成本,并学习到显示与真实偏好显著相似的偏好。
NLP
AI
IR
PDF
解读