- 简介会话式语言模型作为黑匣子系统,让用户猜测为什么会看到他们看到的输出。这种缺乏透明度可能存在问题,特别是考虑到偏见和真实性的问题。为了解决这个问题,我们提出了一个端到端原型,将可解释性技术与用户体验设计相结合,旨在使聊天机器人更加透明。我们首先展示了一种流行的开源LLM具有“用户模型”的证据:通过检查系统的内部状态,我们可以提取与用户的年龄、性别、教育水平和社会经济地位相关的数据。接下来,我们描述了一个仪表板的设计,该仪表板伴随聊天机器人界面一起使用,实时显示这个用户模型。该仪表板也可以用于控制用户模型和系统的行为。最后,我们讨论了一项研究,其中用户与仪器化系统进行了交谈。我们的结果表明,用户喜欢看到内部状态,这有助于他们暴露偏见行为并增加他们的控制感。参与者还提出了有价值的建议,指出了未来设计和机器学习研究的方向。我们的TalkTuner系统的项目页面和视频演示可在https://bit.ly/talktuner-project-page上找到。
- 图表
- 解决问题本论文旨在解决聊天机器人中缺乏透明度的问题,通过将解释性技术与用户体验设计相结合,提出了一个端到端的原型系统,旨在使聊天机器人更加透明。
- 关键思路论文提出了一种仪表板设计,该设计伴随聊天机器人界面,实时显示用户模型,用户可以通过该仪表板控制用户模型和系统行为。
- 其它亮点论文通过研究一种开源的LLM,发现其具有用户模型,可以提取与用户年龄,性别,教育水平和社会经济地位相关的数据。用户可以通过仪表板控制用户模型和系统行为,进一步增加了用户对聊天机器人的控制感。论文还进行了实验研究,结果表明,用户对内部状态的了解有助于暴露偏见行为,并提出了有价值的建议。
- 相关研究包括解释性机器学习和用户体验设计的研究,以及聊天机器人的设计和评估研究。其中一些论文包括“Interpretable Machine Learning: A Guide for Making Black Box Models Explainable”和“Designing and Evaluating Conversational UI”。
沙发等你来抢
去评论
评论
沙发等你来抢