- 简介将自由文本放射学报告自动转换为结构化数据,利用自然语言处理(NLP)技术对大规模疾病进行分析至关重要。虽然在英语等广泛使用的语言中有效,但生成式大语言模型(LLMs)通常在使用较少的语言中表现不佳,并可能对患者隐私构成潜在风险。由于真实世界的医疗数据集中罕见的发现代表着重大的数据不平衡,因此细化本地NLP模型受到了阻碍。我们介绍了SMP-BERT,一种新颖的提示学习方法,利用报告的结构化特性来克服这些挑战。在我们的研究中,涉及超过8,000名希伯来语克罗恩病放射学报告和10,000份报告,SMP-BERT在性能上远远超过传统的微调方法,特别是在检测罕见情况方面(AUC:0.99 vs 0.94,F1:0.84 vs 0.34)。SMP-BERT为低资源语言提供了更准确的人工智能诊断。
- 图表
- 解决问题如何利用自然语言处理技术将自由文本放射学报告转化为结构化数据,以进行大规模疾病分析?在少数语言中,生成式大型语言模型(LLM)通常表现不佳,并可能对患者隐私构成潜在风险。
- 关键思路该论文提出了SMP-BERT,一种利用报告结构化特征的新型提示学习方法,以克服这些挑战。在以色列希伯来语的Crohn病放射学报告研究中,SMP-BERT的表现大大超过了传统的微调方法,特别是在检测罕见情况方面。
- 其它亮点该论文使用了超过8000个患者和10000份报告的数据集,SMP-BERT的性能明显优于传统的微调方法,特别是在检测罕见情况方面。该论文的方法可以为低资源语言提供更准确的人工智能诊断。
- 最近的相关研究包括使用自然语言处理技术进行医学文本分类和命名实体识别的研究,如“Medical Concept Normalization using Contextualized Word Embeddings”和“Deep Learning for Identifying Radiology Reports with Non-Technical Language”。
沙发等你来抢
去评论
评论
沙发等你来抢