Agentic LLM Workflows for Generating Patient-Friendly Medical Reports

2024年08月02日
  • 简介
    大型语言模型(LLM)在医疗保健领域的应用正在迅速扩展,其中一个潜在的用例是将正式的医学报告翻译成患者可读的等价物。目前,LLM的输出通常需要由人员进行编辑和评估,以确保事实准确性和可理解性,这对上述用例也是如此。我们旨在通过提出一个具有反思框架的代理工作流程来最小化这一步骤,该框架使用迭代式自我反思来纠正LLM的输出。该流程在16个随机放射学报告上进行了测试和比较,与零-shot提示相比,我们的多代理方法在验证ICD-10代码时报告的准确率为94.94%,而零-shot提示报告的准确率为68.23%。此外,81.25%的最终反思报告不需要进行准确性或可读性的更正,而仅有25%的零-shot提示报告符合这些标准而不需要进行修改。这些结果表明,我们的方法提供了一种快速、高效且连贯的方法,将临床发现传达给患者,同时保留医学准确性。代码库可在http://github.com/malavikhasudarshan/Multi-Agent-Patient-Letter-Generation上查看。
  • 图表
  • 解决问题
    如何减少人工编辑和评估机器生成的医学报告的工作量,同时确保准确性和易读性?
  • 关键思路
    使用多代理工作流程和自我反思框架,对机器生成的报告进行迭代式自我纠正,以提高准确性和易读性。
  • 其它亮点
    实验结果表明,使用该方法生成的报告在ICD-10代码验证方面的准确性达到94.94%,而零-shot提示的报告准确性仅为68.23%。81.25%的最终生成报告无需进行修改,而只有25%的零-shot提示报告符合这些标准。代码库可在http://github.com/malavikhasudarshan/Multi-Agent-Patient-Letter-Generation查看。
  • 相关研究
    最近的相关研究包括使用迁移学习和预训练模型的医学自然语言处理,以及使用生成对抗网络生成医学文本。相关论文包括“Medical Natural Language Processing with Deep Learning – A Systematic Review”和“Generating Medical Texts with Adversarial Learning”等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论