OpenAI 研究人员与乔治城大学的安全和新兴技术中心以及斯坦福互联网观察站合作,调查大型语言模型如何被滥用于虚假信息。 此次合作包括 2021 年 10 月的一次研讨会,汇集了 30 名虚假信息研究人员、机器学习专家和政策分析师,并最终在一年多的研究基础上共同撰写了一份报告。 这份报告概述了语言模型如果用于增强虚假信息活动对信息环境构成的威胁,并介绍了一个用于分析潜在缓解措施的框架。

完整版报告地址:报告

随着生成语言模型的改进,它们在医疗保健、法律、教育和科学等不同领域开辟了新的可能性。 但是,与任何新技术一样,值得考虑如何滥用它们。本文提出以下问题:语言模型的变化会带来怎样的影响,可以采取哪些步骤来减轻这种威胁?

这份工作汇集了不同背景和专业知识的人员——具有在线虚假信息活动的策略、技术和程序基础的研究人员,以及生成人工智能领域的机器学习专家。该报告分析 AI 的影响力带来的威胁并概述在将语言模型用于大规模影响力操作之前可以采取的步骤。 希望该研究能够为 AI 或虚假信息领域的新手决策者提供信息,并激发对 AI 开发人员、决策者和虚假信息研究人员的潜在缓解策略的深入研究。

在寻找缓解策略时,要考虑以下四个方面:

  1. 技术可行性:提议的缓解措施在技术上是否可行? 它是否需要对技术基础架构进行重大更改?

  2. 社会可行性:从政治、法律和制度的角度来看,缓解措施是否可行? 它是否需要代价高昂的协调,关键参与者是否受到激励来实施它,它是否可以根据现有法律、法规和行业标准采取行动?

  3. 下行风险:缓解的潜在负面影响是什么,它们有多重要?

  4. 效果:提议的缓解措施在减少威胁方面的效果如何?