Designing a Dashboard for Transparency and Control of Conversational AI

2024年06月12日
  • 简介
    对话式语言模型是黑匣子系统,使用户猜测为什么会看到他们看到的输出。这种缺乏透明度可能存在问题,特别是考虑到偏见和真实性方面的问题。为了解决这个问题,我们提出了一个端到端的原型,将可解释性技术与用户体验设计相结合,旨在使聊天机器人更加透明。我们首先展示了一个著名的开源LLM具有“用户模型”的证据:通过检查系统的内部状态,我们可以提取与用户年龄、性别、教育水平和社会经济地位相关的数据。接下来,我们描述了一个仪表板的设计,该仪表板与聊天机器人界面配合使用,实时显示这个用户模型。该仪表板还可以用于控制用户模型和系统的行为。最后,我们讨论了一项研究,研究对象是与被标记的系统进行对话的用户。我们的结果表明,用户喜欢看到内部状态,这有助于他们揭示偏见行为并增加他们的控制感。参与者还提出了有价值的建议,这些建议指向了未来设计和机器学习研究的方向。我们的TalkTuner系统的项目页面和视频演示可在https://bit.ly/talktuner-project-page中找到。
  • 图表
  • 解决问题
    本论文试图解决聊天机器人中缺乏透明度的问题,通过连接可解释性技术和用户体验设计,提出了一种端到端的原型系统,旨在使聊天机器人更透明。
  • 关键思路
    通过检查系统的内部状态,提取与用户年龄、性别、教育水平和社会经济地位相关的数据,设计了一个仪表板,实时显示这个用户模型。该仪表板还可以用于控制用户模型和系统的行为。
  • 其它亮点
    实验结果表明,用户喜欢看到内部状态,这有助于他们暴露偏见行为并增加他们的控制感。参与者还提出了有价值的建议,为设计和机器学习研究指明了未来方向。
  • 相关研究
    相关研究包括可解释性技术在机器学习中的应用,以及聊天机器人的用户体验设计。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论