Large language models in medicine: the potentials and pitfalls
J A. Omiye, H Gui, S J. Rezaei, J Zou, R Daneshjou
[Stanford University]
医疗领域大型语言模型应用综述:潜力与陷阱
-
ChatGPT等大语言模型(LLM)在医学应用方面展现了潜力,但在准确性、偏见、隐私和伦理方面也存在局限。 -
LLM首先在大规模无标注语料上进行预训练,然后在特定任务的数据集上进行微调,提示技术如少样本学习可以进一步调整它们。 -
LLM已被应用于病人教育、临床文档、问答等医学任务,但其输出可能不准确或存在偏见。 -
在医学语料上微调可以提高临床任务的性能,如Med-PaLM展示了医学推理能力。 -
主要挑战包括数据集偏差、不可预测的输出、通过推理进行的隐私泄露以及传播错误信息的伦理问题。 -
缓解策略包括模型审计、在多样化医学数据上训练、提示工程以及制定临床LLM使用规范。 -
未来方向包括多模态LLM、普及化获取、集成模型解释性以及标准化的评估指标。
动机:随着大型语言模型(LLM)在医学领域的应用越来越广泛,了解这些模型的潜力和局限性对医疗从业人员至关重要。
方法:通过回顾和教程,对LLM的开发、应用和潜在问题进行了综述,以帮助医疗从业人员理解LLMs在医学领域应用的快速变化。
优势:LLM在医学中具有广泛的应用潜力,可以用于笔记记录、回答医学考试问题、回答患者问题和生成临床摘要等任务。然而,它们的行为模式尚不完全清楚,并且存在可能产生医学错误输出和放大现有偏见的风险。
本文综述了大型语言模型在医学中的应用潜力和局限,并提供了教程来帮助医疗从业人员理解这些模型。
Large language models in medicine: the potentials and pitfalls
Jesutofunmi A. Omiye, Haiwen Gui, Shawheen J. Rezaei, James Zou, Roxana Daneshjou
https://arxiv.org/abs/2309.00087
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢