Visibility into AI Agents

Alan Chan ,
Carson Ezell ,
Max Kaufmann ,
Kevin Wei ,
Lewis Hammond ,
Herbie Bradley ,
Emma Bluemke ,
Nitarshan Rajkumar ,
David Krueger ,
Noam Kolt ,
Lennart Heim ,
Markus Anderljung
70
热度
2024年01月23日
  • 简介
    将商业、科学、政府和个人活动的委托增加到AI代理人身上——这些系统能够在有限的监督下追求复杂的目标——可能会加剧现有的社会风险并引入新的风险。理解和缓解这些风险需要对现有的治理结构进行批判性评估,必要时修订和调整这些结构,并确保关键利益相关者的问责制。了解某些AI代理人被谁、在哪里、为什么以及如何使用的信息(我们称之为可见性)对于实现这些目标至关重要。在本文中,我们评估了三类措施以增加对AI代理人的可见性:代理人标识符、实时监控和活动日志记录。对于每个措施,我们概述了可能的实施方式,这些实施方式在侵入性和信息性方面有所不同。我们分析了这些措施如何适用于从集中到分散的部署环境的整个谱系,考虑到供应链中的各种参与者,包括硬件和软件服务提供商。最后,我们讨论了这些措施对隐私和权力集中的影响。进一步研究了解这些措施并缓解其负面影响,有助于为AI代理人的治理打下基础。
  • 图表
  • 解决问题
    如何提高AI代理的可见性以应对社会风险和新风险?
  • 关键思路
    本文提出了三种提高AI代理可见性的措施:代理标识符、实时监测和活动日志,并分析了这些措施在不同部署环境下的实施方式和影响。同时探讨了这些措施对隐私和权力集中的影响。
  • 其它亮点
    本文的实验设计包括了哪些数据集和开源代码?值得进一步研究的问题有哪些?
  • 相关研究
    最近相关的研究有哪些?
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论