Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation

2024年04月01日
  • 简介
    最近,具有文本到图像生成能力的大型强大模型(例如OpenAI的DALLE-3和Google的Gemini)的进步使用户能够从文本提示中生成高质量的图像。然而,越来越明显的是,即使是简单的提示也可能导致T2I模型在生成的图像中表现出明显的社会偏见。这种偏见可能会导致社会中的分配和代表性伤害,进一步边缘化少数群体。鉴于这个问题,最近的大量工作致力于调查T2I系统中不同维度的偏见。然而,这些研究的广泛回顾尚未出现,这阻碍了对当前进展和研究空白的系统性理解。我们提出了第一份关于T2I生成模型中偏见的广泛调查。在这项调查中,我们回顾了先前关于偏见维度的研究:性别、肤色和地理文化。具体而言,我们讨论了这些研究如何定义、评估和缓解不同方面的偏见。我们发现:(1)虽然性别和肤色偏见得到广泛研究,但地理文化偏见仍未得到充分探索;(2)大多数关于性别和肤色偏见的研究调查了职业关联,而其他方面则较少研究;(3)几乎所有性别偏见的研究都忽略了非二元身份;(4)评估数据集和指标分散,没有统一的框架来衡量偏见;(5)当前的缓解方法无法全面解决偏见。基于当前的限制,我们指出未来的研究方向,以促进以人为本的定义、评估和缓解偏见。我们希望强调研究T2I系统中的偏见的重要性,同时鼓励未来的努力,全面理解和解决偏见,为每个人构建公平和值得信赖的T2I技术。
  • 图表
  • 解决问题
    解决T2I生成模型中的偏见问题,以避免社会偏见在生成图像中的体现,进一步边缘化少数群体。
  • 关键思路
    该论文提出了第一篇关于T2I生成模型偏见的广泛综述,重点关注性别、肤色和地理文化等方面的偏见,并指出当前研究的局限性和未来研究方向。
  • 其它亮点
    论文回顾了不同维度的偏见,并探讨了如何定义、评估和缓解不同方面的偏见。发现性别和肤色偏见被广泛研究,而地理文化偏见仍未得到充分探讨。大部分关于性别和肤色偏见的研究调查了职业关联性,而其他方面的研究较少。几乎所有性别偏见的研究都忽略了非二元身份。评估数据集和指标分散,没有统一的衡量偏见的框架。当前的缓解方法不能全面解决偏见问题。根据当前的局限性,指出了未来研究方向,以贡献于以人为本的定义、评估和缓解偏见。
  • 相关研究
    最近的相关研究包括:《Bias and Debias in Visual Captioning for People with Blindness》、《On the Role of Text Preprocessing in Neural Network-based Image Captioning》、《Generative Models for Effective ML on Private, Decentralized Datasets》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论