Lookism: The overlooked bias in computer vision

2024年08月21日
  • 简介
    近年来,计算机视觉方面取得了显著进展,导致图像识别和生成系统在社会相关应用中得到广泛部署,从招聘到安全检查。然而,这些系统内存在偏见引起了重大的伦理和社会关注。在这个背景下,最广泛研究的偏见与性别、种族和年龄有关。但是,其他偏见同样普遍且有害,比如“外貌主义”,即基于个人外貌的优惠待遇。尽管外貌主义在计算机视觉方面尚未得到充分探讨,但它不仅会持续推广有害的社会刻板印象,而且会削弱人工智能技术的公平性和包容性,因此,本文主张系统研究外貌主义作为计算机视觉模型中的关键偏见。通过对现有文献的全面审查,我们确定了外貌主义与计算机视觉的三个交叉领域,并通过示例和用户研究进行了说明。我们呼吁采用跨学科方法来解决外貌主义问题,敦促研究人员、开发人员和政策制定者优先发展尊重和反映人类外貌多样性的公平计算机视觉系统。
  • 图表
  • 解决问题
    本文旨在呼吁对外貌歧视(lookism)在计算机视觉模型中的影响进行系统研究,以促进公平、包容的人工智能技术的发展。
  • 关键思路
    通过对现有文献的综合评估,本文确定了外貌歧视与计算机视觉的三个交叉领域,并通过案例和用户研究进行了说明,呼吁研究人员、开发人员和政策制定者优先发展尊重和反映人类外貌多样性的公正计算机视觉系统。
  • 其它亮点
    本文提出了一个新的问题,即外貌歧视如何影响计算机视觉模型的公正性和包容性;本文强调了外貌歧视在计算机视觉中的重要性,提供了三个交叉领域的案例和用户研究,以支持其论点;本文呼吁研究人员、开发人员和政策制定者优先发展尊重和反映人类外貌多样性的公正计算机视觉系统。
  • 相关研究
    最近的相关研究包括对计算机视觉中性别、种族和年龄偏见的研究。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论