AI已经足够聪明,但似乎对人类的偏好还不甚了解。

 

去年的一次演讲中,Stuart Russell从人本主义的角度高屋建瓴地探讨了如何打造「可证明有益的AI」。这也是他19年底的著作《AI新生:破解人机共存密码——人类最后一个大问题》中的核心思想。

 

Russell 所提出的辅助博弈模型基于三个非正式的原则: 机器的唯一目标是满足人类的偏好;机器不知道这些偏好是什么(正是这种不确定性使人类能够保持控制权);而人类主动的行为选择,为这些偏好提供了证据。

 

如果系统设计者将这三原则运用到开发中,则机器的行为方式会与传统的AI模型大相径庭,因为在标准模型中,人类偏好并不存在。

 

以自动驾驶汽车为例,一名乘客给车下达的任务是将其送往机场,在标准模型下,汽车将不惜一切代价试图实现这一目标,包括不让自身系统被「关闭」。

 

自动驾驶最大的问题在于,「直到今天,没有一辆无人驾驶汽车知道人们不喜欢被撞死。」(引用自Human Compatible: Artificial Intelligence and the Problem of Control)

 

「在新的模型中,思维方式完全不同,」Russell认为,最理想的情况是,新模型让机器或算法有服从人类的自主性,在采取行动之前征求许可,保证让「侵入最小化」,并通过提供更多选择来赋予用户行为的权力。

 

「有了这个新模型,人工智能性能越好,结果就越好,因为它将能够更好地推断你的偏好,并更好地满足这些偏好。」

内容中包含的图片若涉及版权问题,请及时与我们联系删除