Relational Norms for Human-AI Cooperation

2025年02月17日
  • 简介
    我们应该如何设计和与社交人工智能互动,取决于该人工智能所模拟或占据的社会关系角色。在人类社会中,诸如师生、亲子、邻里、兄弟姐妹或雇主-雇员等关系都受到特定规范的约束,这些规范规定或禁止合作功能,包括层级、关怀、交易和繁殖。这些规范塑造了我们对每个关系伙伴行为适当性的判断。例如,职场规范可能允许老板给员工下命令,但不允许反过来,这反映了层级和交易的期望。随着由大型语言模型驱动的AI代理和聊天机器人越来越多地被设计成扮演类似于人类的角色——如助手、心理健康提供者、导师或恋爱伴侣——我们必须审视人类关系规范是否以及如何延伸到人机交互中。 我们的分析探讨了AI系统与人类之间的差异,例如缺乏意识体验和不受疲劳影响,可能会如何影响AI履行特定关系功能的能力以及遵守相应规范的能力。这项由哲学家、心理学家、关系科学家、伦理学家、法律专家和AI研究人员共同完成的分析,对AI系统的设计、用户行为和监管具有重要意义。虽然我们承认AI系统可以在某些社会关系角色中提供显著的好处,例如更高的可用性和一致性,但也存在风险,可能导致不健康的依赖或不切实际的期望,这些影响可能会波及到人与人之间的关系。我们建议,理解和深思熟虑地塑造(或实施)合适的人机关系规范,对于确保人机交互的伦理、可信度以及有利于人类福祉至关重要。
  • 图表
  • 解决问题
    该论文探讨了如何设计和与社会人工智能互动,这取决于AI所模仿或占据的社会关系角色。它分析了人类社会中不同关系(如师生、亲子、邻居等)的规范是否应扩展到人机交互中,并考虑了AI系统与人类之间的差异如何影响其履行特定关系功能的能力。这是一个相对较新的问题,特别是在AI逐渐承担类似人类社会角色的背景下。
  • 关键思路
    关键思路在于理解并塑造适用于人机关系的规范,以确保这些互动符合伦理、值得信赖且有利于人类福祉。相比当前研究,这篇论文的独特之处在于它结合了哲学家、心理学家、关系科学家、伦理学家、法律专家和AI研究人员的多学科视角,探讨了AI在不同社会角色中的适用性和潜在风险。
  • 其它亮点
    论文强调了AI在某些社会角色中可能带来的好处,如更高的可用性和一致性,但也指出了潜在的风险,例如形成不健康的依赖或不切实际的期望。此外,论文呼吁深入研究如何为不同类型的AI角色制定适当的规范。虽然文中未提及具体实验设计、数据集或开源代码,但它提出了一个重要的研究方向,即如何将人类社会规范应用于AI设计和监管。
  • 相关研究
    最近在这个领域内的相关研究包括: 1. "Ethical AI: Creating a Framework for Responsible AI Development" 2. "Human-AI Interaction: Designing for Trust and Transparency" 3. "The Role of AI in Mental Health: Opportunities and Challenges" 4. "Social Robots: Implications for Human Relationships" 5. "Legal and Ethical Considerations in AI Governance"
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论