Societal and technological progress as sewing an ever-growing, ever-changing, patchy, and polychrome quilt

2025年05月08日
  • 简介
    人工智能(AI)系统越来越多地被置于其决策具有实际影响的位置,例如调节线上空间、开展研究以及为政策提供建议。因此,确保这些系统以安全且符合伦理的方式运行至关重要。然而,大多数解决方案都采取了一种“一刀切”的“对齐”方式。我们担心,这种忽视持久道德多样性的系统将引发抵制、侵蚀信任,并动摇我们的社会机构。本文将这一潜在问题追溯到一个常被隐含的“理性收敛公理”:即在理想条件下,理性主体在充分交流的极限下会趋向于单一的伦理共识。我们认为这一前提并非必要且值得怀疑,因此提出我们称之为“适切性框架”的替代方法:这是一种基于冲突理论、文化进化、多智能体系统和制度经济学的全新路径。适切性框架将持久的分歧视为常态,并通过应用以下四项原则来设计应对方案:(1)情境化基础、(2)社区定制、(3)持续适应、(4)多中心治理。我们认为,采纳这些设计原则是一种有效的方法,可以将主要的对齐隐喻从道德统一转向更具建设性的冲突管理隐喻,并且这一步骤既可取也十分紧迫。
  • 图表
  • 解决问题
    论文试图解决AI系统在实际应用中因忽视道德多样性而可能引发的社会抵抗、信任侵蚀和制度不稳定的问题。这是一个需要关注的新问题,因为现有的‘对齐’方法多基于理性收敛的假设,未充分考虑持久的道德分歧。
  • 关键思路
    论文提出了一种名为‘适当性框架’的替代方法,挑战了传统的‘理性收敛’假设,转而接受并设计应对持久的道德分歧。该框架基于冲突理论、文化进化、多代理系统和制度经济学,提出了四个设计原则:情境接地、社区定制、持续适应和多中心治理。这种方法将对齐的核心隐喻从道德统一转向冲突管理。
  • 其它亮点
    论文强调通过多元治理和动态调整来适应不同文化和情境的需求,具有较强的实践意义。虽然论文没有提及具体实验或数据集,但其理论框架为未来的研究提供了方向,例如如何在特定社区中实现‘社区定制’以及如何评估系统的适应能力。值得深入研究的是,如何将这些原则转化为具体的算法和技术实现。此外,论文未提及代码开源,但其思想可以启发后续的实际开发工作。
  • 相关研究
    近期相关研究包括:1)《Reconciling AI Ethics: A Multistakeholder Approach》探讨了多方利益相关者的伦理协调;2)《Moral Machines: Building Robots That Make Ethical Decisions》讨论了机器人伦理决策的设计;3)《Value Alignment in Multi-Agent Systems》研究了多代理系统中的价值对齐问题;4)《Cultural Differences in AI Acceptance: A Global Perspective》分析了全球范围内文化差异对AI接受度的影响。这些研究共同构成了关于AI伦理和治理的丰富背景。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论