- 简介现有的关于视觉语言模型(VLMs)对社会偏见的研究主要集中在一些常见的偏见关联方面,例如性别:职业或种族:犯罪。这种狭窄的范围常常忽略了大量未经检验的隐含关联,从而限制了这些偏见的识别和缓解。我们通过探究VLMs来填补这一空白,以(1)揭示9个偏见维度上的隐藏隐含关联。我们系统地探索了不同的输入和输出模态,并(2)展示了偏见关联在其消极性、毒性和极端性方面的差异。我们的工作(3)识别了通常不被现有方法所认识的微妙和极端的偏见。我们将检索到的关联数据集(Dora)公开在这里:https://github.com/chahatraj/BiasDora。
- 解决问题本论文旨在探索视觉语言模型(VLMs)中的社会偏见,并揭示隐藏的、隐含的偏见关联,以便更好地识别和减轻这些偏见。与现有的研究方法相比,论文试图探索更广泛的输入输出模式,以识别更多的偏见关联。
- 关键思路论文的关键思路是通过探索多种输入输出模式来揭示VLMs中的隐含偏见关联,并提出了一种新的方法来评估这些偏见关联的负面程度、毒性和极端程度。
- 其它亮点论文通过探索多种输入输出模式,揭示了VLMs中的隐含偏见关联,并提出了一种新的方法来评估这些偏见关联的负面程度、毒性和极端程度。此外,论文还开源了数据集和代码,供其他研究人员使用和参考。
- 在这个领域中,最近的相关研究包括《Language Models as an Implication of Power》、《Assessing Social and Intersectional Biases in Contextualized Word Representations》等。
沙发等你来抢
去评论
评论
沙发等你来抢