Automatic Summarization of Doctor-Patient Encounter Dialogues Using Large Language Model through Prompt Tuning

2024年03月19日
  • 简介
    这项研究提出了使用生成式大型语言模型(LLMs)对医生和患者的对话进行摘要的方法,旨在协助临床医生提供持续和协调的医疗服务。研究人员开发了提示调整算法,指导生成式LLMs进行临床文本摘要。他们检查了提示调整策略、软提示的大小以及GatorTronGPT的少样本学习能力。GatorTronGPT是一个生成式临床LLM,使用了2770亿个临床和通用英语单词,具有高达200亿个参数。研究人员使用MTS-DIALOG临床基准数据集将GatorTronGPT与基于广泛使用的T5模型的微调的先前解决方案进行了比较。实验结果表明,GatorTronGPT-20B模型在所有评估指标上表现最佳。由于在提示调整期间不更新LLM参数,所以该解决方案的计算成本较低。这项研究通过提示调整展示了生成式临床LLMs在临床ATS中的高效性。
  • 图表
  • 解决问题
    本论文旨在通过生成式大语言模型(LLMs)的使用,解决医生和患者对话的自动文本摘要问题,以便为临床医生提供连续和协调的护理。
  • 关键思路
    本文提出了使用提示调整算法来指导生成式LLMs进行临床文本摘要的方法,并比较了不同模型的性能。结果表明,GatorTronGPT-20B模型在所有评估指标上表现最佳。
  • 其它亮点
    本文的亮点包括:使用了2770亿个临床和通用英文单词进行模型训练,提出了提示调整算法来指导生成式LLMs进行文本摘要,实验结果表明GatorTronGPT-20B模型在所有评估指标上表现最佳,而且该方法计算成本低廉。
  • 相关研究
    最近在这个领域中,相关的研究包括:使用T5模型进行精细调整的先前解决方案。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论