GoldCoin: Grounding Large Language Models in Privacy Laws via Contextual Integrity Theory

2024年06月17日
  • 简介
    在实体之间不当传输信息时,隐私问题会显著出现。现有研究主要通过探索各种隐私攻击、防御和评估来研究隐私,这些研究往往只在狭窄的预定义模式内进行,忽略了隐私不是一个孤立的、无上下文限制的概念,而是与复杂的社会背景相互交织,这使得识别和分析潜在的隐私侵犯变得复杂。大型语言模型(LLMs)的出现为纳入隐私法中概述的微妙情境提供了前所未有的机会,以解决这些复杂的隐私问题。然而,开源相关案例研究的缺乏限制了LLMs在与特定法规对齐方面的效率。为了解决这个挑战,我们引入了一种新的框架GoldCoin,旨在有效地将LLMs与隐私法对齐,以评估隐私侵犯。我们的框架利用上下文完整性理论作为桥梁,创建了许多基于相关隐私法规(如HIPAA)的合成情景,以帮助LLMs理解识别现实世界中的隐私风险的复杂上下文。广泛的实验结果表明,GoldCoin显著提高了LLMs在识别真实法庭案例中的隐私风险方面的能力,在不同的司法任务上超过了基线。
  • 图表
  • 解决问题
    GoldCoin论文试图解决的问题是如何让大型语言模型(LLMs)更好地识别隐私风险,从而在司法评估隐私侵犯时更加高效。
  • 关键思路
    GoldCoin框架利用上下文完整性理论作为桥梁,创造了许多基于相关隐私法规(例如HIPAA)的合成场景,帮助LLMs理解识别现实世界中的复杂隐私风险的复杂上下文。
  • 其它亮点
    论文提出了一个新的框架GoldCoin,用于将LLMs与隐私法律对齐,以便司法评估隐私侵犯。研究表明,GoldCoin显著提高了LLMs在识别真实法庭案件中的隐私风险方面的能力,超过了不同司法任务的基线。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,例如《隐私与安全》、《隐私保护机制》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论