- 简介本文调查了社会科学研究中用于情感分析(SA)的情感推理模型中存在的政治偏见。机器学习模型往往反映其训练数据中的偏见,影响其结果的有效性。虽然以前的研究已经强调了性别和种族偏见,但我们的研究重点是政治偏见——一个鲜为人知但普遍存在的问题,它可能会扭曲跨各种研究中文本数据的解释。我们对我们实验室开发的一个波兰情感分析模型进行了偏见审计。通过分析涉及波兰政治家的姓名和句子的情感预测,我们发现受政治派别影响的系统性差异。我们的发现表明,人类评定者的注释将政治偏见传播到模型的预测中。为了减轻这种影响,我们删除了提到这些政治家的文本的训练数据集,并观察到偏见的减少,尽管没有完全消除。鉴于政治偏见在SA中的重要影响,我们的研究强调在社会科学研究中谨慎使用这些模型。我们建议对SA结果进行批判性审查,并提出使用基于词库的系统作为更具意识形态中立性的替代方案。本文强调了持续审查和方法调整的必要性,以确保机器学习在学术和应用环境中的可靠性和公正性。
- 图表
- 解决问题研究情感分析模型中的政治偏见问题,以及如何减少这种偏见对社会科学研究的影响。
- 关键思路通过对波兰情感分析模型进行偏见审核,并剔除与政治相关的文本来减少偏见。同时,建议使用基于词库的系统作为更为中立的替代方案。
- 其它亮点论文发现在情感分析模型中存在政治偏见问题,并提出了削减偏见的方法。实验使用了波兰政治家的名字和句子作为数据集。建议在社会科学研究中谨慎使用情感分析模型,需要对结果进行批判性的审查。
- 最近的相关研究主要集中在性别和种族偏见方面,如《Gender Bias in Contextualized Word Embeddings》和《Assessing and Mitigating Gender Bias in Natural Language Processing》。


提问交流