- 简介在人工智能系统中解决公平性和偏见的重要性不言而喻。近年来,主流媒体充斥着关于这些系统中的刻板印象和偏见的事件的新闻。在本次调查中,我们填补了有关大型多模型模型(LMM)中的公平性和偏见的最小研究空白,与大型语言模型(LLM)相比,提供了50个数据集和模型示例以及影响它们的挑战;我们识别了一种新的偏见量化类别(preuse),除了文献中已知的内在偏见和外在偏见两种;我们批判性地讨论了研究人员解决这些挑战的各种方式。我们的方法涉及在Google Scholar上进行了两个略有不同的搜索查询,结果显示“大型多模型模型中的公平性和偏见”和“大型语言模型中的公平性和偏见”这两个术语的结果分别为33,400和538,000个链接。我们认为这项工作有助于填补这一空白,并为研究人员和其他利益相关者提供解决多模态AI公平性和偏见挑战的见解。
- 图表
- 解决问题解决问题的问题是关于大型多模态模型(LMMs)中的公平性和偏差的不足研究,以及如何解决这些挑战。
- 关键思路论文提供了50个数据集和模型的示例,探讨了影响这些模型的挑战,并识别了一种新的偏差量化类别(preuse)
- 其它亮点该论文提供了有关如何解决多模态AI中的公平性和偏差挑战的见解,使用了两种略微不同的搜索查询来填补这一研究领域的不足。
- 最近的相关研究包括“公平和偏见在深度学习中的应用”、“多模态机器学习中的公平性和隐私”和“公平性在人工智能中的应用”等。
沙发等你来抢
去评论
评论
沙发等你来抢