2021年12月10日,Nature Medicine杂志发表文章,对医疗人工智能中偏见产生的原因和解决方法进行了分析。
论文链接:
基于人工智能的模型可能会放大数据集内预先存在的人类偏见,解决这个问题需要从根本上重新调整软件开发的文化。
研究指出,尽管在几个临床护理领域已经发现了对服务不足的病人诊断不足的例子,但预测模型可能会放大这种偏见。此外,转向基于自动自然语言处理 (NLP) 的标注,也是已知的对代表不足的人群的偏见,可能会让服务不足的群体的诊断不足。
这项研究揭示了医疗保健中一个重要但相对研究不足的偏见类型,并提出了更大的问题,即这种偏见是如何产生的以及如何将其最小化。
作者提出了几项建议,通过考虑 AI 开发过程中的一些问题来减少诊断不足。例如,他们建议对使用NLP的放射学报告的自动标注进行审核。他们还注意到公平(通过假阴性率(FNR)和假阳性率(FPR)的平等实现公平)和模型性能之间的权衡。然而,在提出"为实现平等而降低模型在某一亚组上的整体性能,在道德上是否可取"的问题时,作者也明确地将这种权衡作为价值观以及技术上的考虑之一。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢