- 简介大型语言模型在医疗保健领域的应用已经展现出增强临床决策、提高行政效率和改善患者预后的巨大潜力。然而,这些模型的开发和应用中存在的各种群体代表性不足问题可能会导致偏见,从而导致不公平的医疗保健服务。本文对LLM在医疗保健领域的研究进行了全面的科学计量分析,包括2021年1月1日至2024年6月16日的数据。通过分析PubMed和Dimensions的元数据,包括作者机构、国家和资助来源,我们评估了LLM研究的贡献者多样性。我们的发现强调了性别和地理上的显著差异,男性作者占主导地位,贡献主要来自高收入国家(HICs)。我们引入了一种基于基尼不纯度的新型期刊多样性指数来衡量科学出版物的包容性。我们的结果强调了更多代表性的必要性,以确保LLM在医疗保健中的公平应用。我们提出了可行的策略,以增强人工智能研究的多样性和包容性,最终目标是促进更具包容性和公平性的医疗保健创新未来。
- 图表
- 解决问题缺乏多样性对于大型语言模型在医疗保健中的应用可能会导致偏见,从而导致不公平的医疗保健交付。该论文旨在分析大型语言模型研究的多样性,并提出可行的策略来增强人工智能研究的多样性和包容性。
- 关键思路通过对PubMed和Dimensions的元数据进行分析,包括作者机构、国家和资金来源等,评估了大型语言模型研究的贡献者的多样性。提出了一种基于基尼不纯度的新型期刊多样性指数,以衡量科学出版物的包容性。研究结果强调了增加代表性以确保大型语言模型在医疗保健中的公平应用的必要性。
- 其它亮点该论文的亮点包括:使用元数据进行全面的科学计量分析;提出了一种新的期刊多样性指数;提出了可行的策略来增强人工智能研究的多样性和包容性。
- 最近的相关研究包括:1. 'A systematic review of bias in artificial intelligence in healthcare';2. 'Racial disparities in machine learning: A systematic review of the literature';3. 'Gender bias in artificial intelligence: The need for diversity and inclusion'。
沙发等你来抢
去评论
评论
沙发等你来抢