- 简介如今,数以亿计的人们通过聊天机器人定期与大型语言模型进行互动。为了提升模型能力并争夺市场份额,模型开发者们迫切希望获取新的高质量训练数据来源。本文分析了六家美国前沿人工智能开发公司的隐私政策,以了解他们如何利用用户的聊天内容来训练模型。我们主要依据《加州消费者隐私法案》,制定了一种全新的定性编码框架,并将其应用于这六家公司相关的隐私政策中,以比较它们在数据收集和使用方面的做法。 我们发现,这六家公司似乎都在默认情况下利用用户的聊天数据来训练和改进其模型,其中一些公司甚至无限期保留这些数据。开发者可能会收集并在模型训练中使用用户聊天中披露的个人信息,包括生物识别信息、健康数据等敏感信息,以及用户上传的文件。我们调查的六家公司中有四家似乎会将儿童的聊天数据纳入模型训练,同时也包括来自其他产品的客户数据。 总体而言,这些开发公司在隐私政策中往往缺乏关于其数据使用实践的关键信息,凸显出提高透明度和加强责任担当的必要性。本文还探讨了用户未明确同意将聊天数据用于模型训练所带来的影响、无限期保留聊天数据所带来的数据安全问题,以及使用儿童聊天数据进行训练的相关问题。最后,我们向政策制定者和开发者提出了应对由大型语言模型驱动的聊天机器人所带来的数据隐私挑战的建议。
-
- 图表
- 解决问题这篇论文研究了六家美国前沿AI开发公司的隐私政策,分析这些公司如何使用用户的聊天数据来训练大语言模型(LLM)。论文试图验证的假设是:这些公司在默认情况下会使用用户聊天数据进行模型训练,且存在隐私和数据安全方面的风险。这是一个相对较新的问题,因为随着LLM驱动的聊天机器人迅速普及,如何在提升模型能力的同时保护用户隐私成为一个重要但尚未被充分探讨的议题。
- 关键思路论文的关键思路是基于《加州消费者隐私法案》(CCPA),构建了一个新的定性编码框架,对六家AI公司的隐私政策进行系统性分析与比较。相比以往研究,本文首次从法律与政策角度,系统性地揭示了LLM开发者如何处理用户聊天数据,并指出了其中缺乏透明度与用户同意机制的问题。
- 其它亮点1. 所有六家公司都在默认情况下使用用户聊天数据进行模型训练。 2. 部分公司无限期保留用户数据,甚至包括敏感信息(如生物识别和健康数据)。 3. 四家公司可能将儿童的聊天数据与其他产品用户数据纳入训练。 4. 隐私政策普遍存在信息不透明的问题,缺乏用户知情同意机制。 5. 论文建议政策制定者和开发者加强透明度、数据最小化和用户控制。 6. 研究方法基于政策文本分析,未涉及实验或数据集训练,因此不涉及开源代码。
- 1. ‘Language Models for Privacy Policy Analysis’(语言模型在隐私政策分析中的应用) 2. ‘Understanding Data Practices in AI Development’(理解AI开发中的数据实践) 3. ‘Children's Data in Machine Learning: Ethical and Legal Considerations’(机器学习中的儿童数据:伦理与法律考量) 4. ‘The Privacy Implications of Large Language Models’(大语言模型的隐私影响) 5. ‘Transparency in AI Systems: A Survey’(AI系统透明性综述)
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流