- 简介大型语言模型(LLMs)的出现以及它们在用户面向系统中的广泛使用引发了极大的隐私担忧。迄今为止,对这些隐私问题的研究都是以模型为中心的,探索LLMs如何导致记忆等隐私风险,或者如何从用户的内容中推断个人特征。我们认为需要更多关注这些隐私问题的人类方面的研究,例如,研究LLMs的设计范例如何影响用户的披露行为、用户的心理模型和隐私控制的偏好,以及设计工具、系统和工件,使最终用户能够重新拥有对其个人数据的所有权。为了构建可用、高效和隐私友好的系统,我们的目标是启动讨论,概述在LLM驱动的系统中进行以人为中心的隐私问题研究的议程。这个特别兴趣小组(SIG)旨在汇集具有可用安全和隐私、人工智能协作、自然语言处理或其他相关领域背景的研究人员,分享他们对这个问题的看法和经验,帮助我们的社区建立对挑战、研究机会、研究方法和与HCI之外的研究人员合作的策略的集体理解。
- 图表
- 解决问题探讨大型语言模型(LLMs)在用户面向系统中的隐私问题,重点关注人类方面的隐私问题,如设计范例对用户披露行为、用户心理模型和隐私控制的影响,以及设计工具、系统和工件来赋予最终用户对其个人数据的所有权。
- 关键思路通过人类中心的研究方法,探索LLMs在隐私问题方面的挑战、研究机会、研究方法和策略,以建立一个共同的理解。
- 其它亮点该论文提出了一个特别兴趣小组(SIG),旨在聚集来自可用性安全和隐私、人工智能协作、自然语言处理或任何其他相关领域的研究人员,分享他们对这个问题的看法和经验,以帮助我们的社区建立一个共同的理解。
- 最近的相关研究主要集中在LLMs的隐私风险,如记忆化和从内容推断个人特征等方面。
沙发等你来抢
去评论
评论
沙发等你来抢