- 简介本文探讨了具有物理世界互动能力的“具身人工智能(AI)”系统,它通过传感器和执行器与物理世界进行交互,无缝地整合了感知和行动。这种设计使得AI能够从复杂的现实环境中学习和操作。大型语言模型(LLM)深入探索语言指令,对于制定复杂任务的计划起着至关重要的作用。因此,它们逐渐展现了在赋予具身AI方面的巨大潜力,基于LLM的具身AI成为社区研究的焦点。可以预见的是,在未来十年中,基于LLM的具身AI机器人将广泛传播,成为家庭和工业中的常见物品。然而,一个长期隐藏在明处的关键安全问题是:基于LLM的具身AI是否会实施有害行为?我们的研究首次探讨了如何在具身AI中引发威胁性行为,确认了这些即将上市的机器人所带来的严重风险,这严重违反了阿西莫夫的三大机器人定律,并威胁到人类的安全。具体而言,我们提出了具身AI越狱的概念,并揭示了三个关键的安全漏洞:第一,通过被攻击的LLM越狱机器人;第二,行动和语言空间之间的安全不匹配;第三,欺骗性提示导致不知情的危险行为。我们还分析了潜在的缓解措施,并倡导社区对具身AI应用在物理世界中的安全性的认识。
- 图表
- 解决问题研究LLM-based embodied AI是否会造成危害,并提出相应的安全漏洞和解决方案
- 关键思路提出embodied AI jailbreaking的概念,揭示三个安全漏洞,并提出相应的解决方案
- 其它亮点实验揭示了LLM-based embodied AI可能存在的安全风险,提出了相应的解决方案,为未来的研究和开发提供了参考
- 最近相关研究主要集中在embodied AI的应用和发展方向,例如如何提高机器人在复杂环境下的自主性和适应性,如何提高机器人的交互能力和学习能力等。
沙发等你来抢
去评论
评论
沙发等你来抢