点击蓝字

关注我们

海外智库观察

在当今数据驱动和技术快速发展的时代,人工智能(Artificial Intelligence, AI) 的应用已经渗透到国土安全和个人隐私的各个方面。兰德公司在其最新研究中探讨了公众如何看待政府在国土安全领域使用AI技术的问题,强调了公众对隐私、安全性和透明度的担忧。而斯坦福大学以人为本研究所通过一部白皮书进一步探讨了AI时代保护个人信息的挑战,包括数据收集的默认做法、监管问题以及数据隐私保护的新策略。这两篇文章共同揭示了公众对AI技术应用的深刻关切,以及迫切需要建立更为严格的数据保护和隐私监管框架的现实。


兰德公司

RAND



了解公众对AI用于国土安全的看法有助于推动AI系统部署

2024年3月20日,兰德公司发布了其政策研究员Benjamin Boudreaux、国土安全研究部管理、技术和能力项目副主任Douglas Yeung等人共同撰写的文章《公众对AI用于国土安全的看法(Public Perceptions of Artificial Intelligence for Homeland Security)》。


文章指出,公众对政府使用AI技术的看法很重要,例如建立对政府的信任和合法性,促进国会提供必要的资金和立法支持,以及促进与技术公司和运营合作伙伴的合作。因此,为了确保美国国土安全部(United States Department of Homeland Security, DHS)能够有效地将AI融入其任务中,该部门评估了公众对DHS使用AI的看法。,其重点关注四种类型的技术:人脸识别技术 、车牌读取器技术、风险评估技术和手机位置数据。研究人员试图评估公众对DHS使用AI技术的益处和风险的看法,来帮助DHS官员和其他主要利益相关者了解公众的看法并将其纳入技术部署中。


首先,报告指出,AI系统对于支持美国DHS的核心任务可能至关重要,但目前DHS利用新兴AI技术的潜力主要受制于主要利益相关者(例如国会议员、科技公司和倡导团体)和广大公众对政府使用这些技术的看法,因此了解大众的看法对诸如建立对政府的信任和合法性,促进国会提供必要的资金和立法支持,以及促进与技术公司和运营合作伙伴的合作来说十分重要。其中,一些主要利益相关者对DHS使用AI技术表示担忧,例如DHS应用程序侵犯隐私和公民自由、加剧不平等以及缺乏适当监督和其他保障措施的风险。首先,全国代表性调查表明,大量受访者尚未对政府使用面部识别技术存在看法或观点,其表示,政府使用面部识别技术的安全性、准确性和隐私比速度或便利性更重要,而且他们更可能倾向于关注多种类型的风险而非益处,如滥用、不准确和偏见。其次,不到四分之一的专家组表示相信政府对面部识别技术的使用,然而,保障措施能够提升公众对政府使用此技术的舒适度,但这些措施对提高总体舒适感的效果可能是有限的。同时,受访者普遍认为,政府在使用面部识别技术时必须遵守特定的要求,以回应大众对隐私和安全性的关切,但值得注意的是,公众的支持程度更多地取决于面部识别技术的具体应用场景而非技术本身。例如,受访者倾向于支持将面部识别技术用于刑事调查等应用,但对于在抗议活动或公共场所识别个人的应用则持反对态度。此外,对于风险技术的支持程度因应用程序和数据源的不同而有所差异,显示了公众对不同用途和数据敏感性的不同看法。最后,报告指出,受访者对政府使用车牌阅读器和手机位置数据的态度也因其应用的具体情境而异,并进一步强调了在采用这些技术前考虑公众意见的重要性。


最后,报告建议,为了确保AI技术的有效应用和社会接受度,政府应积极参与那些对政府使用AI持不确定或中立态度的社区,以增进理解和支持。从各个利益相关者群体的视角出发,仔细分析AI带来的益处和风险,不仅有助于发现潜在的问题,也有助于寻找到解决方案。同时,关注点应该放在AI的具体应用和相应的安全措施上,而不仅仅是技术的类型,因为公众的担忧往往围绕如何使用技术,以及使用过程中的数据来源和保护措施。此外,通过与各方的持续合作伙伴关系,可以在DHS和美国政府中建立更深厚的信任基础。同时,考虑到党派对DHS使用AI的潜在影响,采用多种方法定期参与关键利益相关者变得尤为重要,将公众的感知和反馈整合到技术的开发和采购生命周期中,不仅可以提前发现并解决问题,也能确保技术解决方案更贴近公众的需求和期望。最后,进行的公众感知研究应保证时效性,以便政策和技术能够及时响应社会变化和公众关切。







斯坦福大学以人为本人工智能研究所

Stanford University Human-Centered Artificial Intelligence,HAI

将AI嵌入外交领域有助于提高战略竞争中的竞争力

2024年3月18日,HAI发布了其研究员Katharine Miller撰写的文章《人工智能时代的隐私:我们如何保护个人信息(Privacy in an AI Era: How Do We Protect Our Personal Information?)》。文章指出,AI的繁荣,包括大型语言模型 (Large Language Models, LLMs) 及其相关聊天机器人的出现给隐私带来了新的挑战。此前,HAI隐私和数据政策研究员Jennifer King和斯坦福HAI政策研究经理Caroline Meinhardt发布名为《重新思考AI时代的隐私:以数据为中心的世界的政策挑衅(Rethinking Privacy in the AI Era: Policy Provocations for a Data-Centric World)》的白皮书,以更好地了解这些威胁并寻找潜在的解决方案,本文基于此重新分析了AI系统的风险,并给出了可行的建议。


首先,文章指出了目前主要存在的三项风险。第一,在过去几十年里AI系统使得互联网商业化,数据收集过程中一直面临的隐私风险也逐渐暴露出来,AI系统对数据的需求和不透明程度使公众对收集的信息内容、信息如何被使用以及如何更正或移除个人信息有着更少的控制权。第二,他人可以反社会地使用数据和AI工具,如有意针对人们进行身份盗窃或欺诈。第三,用户共享或发布的数据如简历或照片可能会在未经知情或同意的情况下被用于训练AI系统,这有时直接涉及民权问题,以及用于帮助筛选候选人的预测系统存在偏见;另一个例子则表明,由于训练现有面部识别算法的数据中存在固有偏见,出现了许多错误逮捕黑人男性的案例。


随后,作者针对公众是否已经对公司获取所有数据的想法变得麻木,以至于现在已经太晚无法采取任何行动这一问题表示,在线浏览时数据不应该被收集,除非用于如注册服务或创建账户等功能,但即使如此,除非得到同意分享的授权,个人数据不应该被视为公共信息。此外,作者还表示十年前大多数人考虑数据隐私时主要关注在线购物,但现在公司转向了无处不在的数据收集以训练AI系统,这可能对社会尤其是民权产生重大影响。仅仅将实施数据最小化和目的限制法规,即规定公司只能收集他们需要的数据以及有限的目的)作为一种通用的数据隐私保护方法是不够的。因此,作者建议从选择退出转向选择加入数据共享,即默认情况下应该是不收集数据,除非明确要求收集数据。另一种选择是让网络浏览器具有内置的选择退出信号,例如全球隐私控制,无需选中复选框即可防止第三方放置cookies或出售个人数据。此外,作者还建议采用供应链方法来保护数据隐私。在输入方面即训练数据,个人信息在训练集中的存在可能会对输出产生影响。例如,生成式AI系统可能会记住个人身份信息并将其作为输出提供。目前主要依靠AI公司从其训练数据中删除个人信息,或者设置护栏防止个人信息在输出端泄露。但是,监管AI需要特别关注数据的整个供应链——不仅是为了保护隐私,也是为了避免偏见并改进AI模型,这个领域还有很多工作要做。


最后,作者在报告中指出,在关注过于有限的个人隐私权的问题上,我们需要考虑集体解决方案。例如,在加利福尼亚州有数据隐私法,但大多数人甚至不知道拥有哪些权利以及如何行使权利。因此,必须向与公众互动的每一家公司提出单独的请求,禁止他们出售个人信息。集体解决方案有助于公众有足够的影响力来大规模谈判其数据权利。作者指出,数据中介的概念最有意义,它涉及将数据权利的谈判权委托给一个集体来做这项任务,可以采取多种形式,例如数据管理员、信任、合作、协作或共享。







原文链接:

[1]https://www.rand.org/pubs/research_reports/RRA691-1.html

[2]https://hai.stanford.edu/news/privacy-ai-era-how-do-we-protect-our-personal-information


文章检索:周韫斐

编译:边洁、杨雨虹

审核:王净宇

排版:赵杨博

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第231期

海外智库丨人工智能国际治理观察第230期

海外智库丨人工智能国际治理观察第229期


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

内容中包含的图片若涉及版权问题,请及时与我们联系删除