- 简介虽然我们对机器学习中公平性的理解已经取得了显著进展,但是我们对强化学习(RL)中的公平性的理解仍然很初步。大部分关注点都集中在一次性分类任务的公平性上,然而,现实世界中基于RL的系统(例如自动驾驶汽车)要复杂得多,因为智能体在长时间内在动态环境中运行。为了确保这些系统的负责任的开发和部署,我们必须更好地理解RL中的公平性。在本文中,我们调查文献,提供最新的RL公平性前沿的快照。我们首先回顾了公平性考虑在RL中可能出现的地方,然后讨论了目前已经提出的RL公平性的各种定义。我们继续强调研究人员在单一和多智能体RL系统中实现公平性的方法,然后展示了公平RL已经被研究的不同应用领域。最后,我们批判性地审查了文献中的空白,例如在RLHF上理解公平性仍需要在未来的工作中解决,以真正将公平RL运用于现实世界的系统中。
- 图表
- 解决问题研究如何在强化学习中实现公平性,以确保RL在实际系统中的负责任开发和部署。
- 关键思路综述了强化学习中实现公平性的各种定义、方法和应用领域,并指出了未来需要解决的问题。
- 其它亮点论文介绍了在单个和多个智能体RL系统中实现公平性的方法,探讨了公平RL在不同应用领域的应用,如自动驾驶等。同时,提出了需要进一步研究的问题,如如何在RLHF的情况下实现公平性。
- 最近的相关研究包括:'Fairness in Machine Learning: A Survey','A Survey of Bias in Artificial Intelligence','Fairness in Reinforcement Learning: A Comprehensive Overview'等。
沙发等你来抢
去评论
评论
沙发等你来抢