- 简介云端的大型语言模型(LLMs)例如ChatGPT已经逐渐成为日常运营中不可或缺的工具,服务于各种应用。虽然这些模型在可访问性和功能方面提供了实质性的好处,但它们也引入了重大的隐私问题:用户数据在云基础设施中的传输和存储会带来数据泄露和未经授权的敏感信息访问的重大风险;即使数据的传输和存储是加密的,LLM服务提供商本身仍然知道数据的真实内容,这阻止了个人或实体自信地使用这些LLM服务。为了解决这些问题,本文提出了一种简单而有效的机制EmojiCrypt来保护用户隐私。它使用Emoji对用户输入进行加密,然后再将其发送到LLM,有效地使它们对人类或LLM的检查无法被破解,同时保留提示的原始意图,从而确保模型的性能不受影响。我们在个性化推荐、情感分析和表格数据分析三个任务上进行了实验。实验结果表明,EmojiCrypt可以以这种方式加密提示中的个人信息,不仅可以防止人类或LLM本身识别敏感数据,而且在不进行进一步调整的情况下保持或甚至提高了精度,实现了与直接提示LLM而不进行提示加密相当或甚至更好的任务准确性。这些结果突出了采用保护用户隐私的加密措施而不影响LLMs的功能完整性和性能的实用性。代码和数据集可在https://github.com/agiresearch/EmojiCrypt上获得。
- 解决问题EmojiCrypt: 一种保护用户隐私的加密方法。该论文试图解决云端大型语言模型(LLM)在保护用户隐私方面所面临的问题,即云基础设施中用户数据的传输和存储存在数据泄露和未经授权访问敏感信息的风险。
- 关键思路EmojiCrypt使用表情符号对用户输入进行加密,使其对人类或LLM的检查都无法破解,同时保留原始提示的意图,从而确保模型的性能不受影响。
- 其它亮点EmojiCrypt的实验结果表明,该方法可以加密提示中的个人信息,以一种防止人类或LLM本身识别敏感数据的方式,同时保持或甚至提高精度,而无需进一步调整。该论文提供了代码和数据集,并强调采用加密措施可以在不影响LLM的功能完整性和性能的情况下保护用户隐私。
- 最近的相关研究包括基于同态加密和差分隐私的方法,例如《基于同态加密的联邦学习:现状与前景》和《差分隐私:现状与前景》等。
沙发等你来抢
去评论
评论
沙发等你来抢