- 简介在临床推理中使用大型语言模型(LLMs)存在两个主要障碍。首先,虽然LLMs在自然语言处理(NLP)任务中表现出显著的优势,但在复杂的推理和规划方面的表现却不如人们的期望。其次,LLMs使用不可解释的方法进行临床决策,这与临床医生的认知过程根本不同,导致用户的不信任。本文提出了一个名为ArgMed-Agents的多智能体框架,旨在通过交互使基于LLM的代理能够进行可解释的临床决策推理。ArgMed-Agents通过临床决策论证方案(一种模拟临床推理认知过程的推理机制)进行自我论证迭代,然后将论证过程构建为表示冲突关系的有向图。最终,Reasoner(一种符号求解器)确定一系列合理和连贯的论据来支持决策。ArgMed-Agents使LLMs能够模仿临床论证推理的过程,以自我导向的方式生成推理解释。实验结果表明,与其他提示方法相比,ArgMed-Agents不仅提高了复杂临床决策推理问题的准确性,更重要的是,它提供了决策解释,增强了用户的信心。
-
- 图表
- 解决问题论文旨在解决在临床推理中使用大型语言模型(LLMs)时遇到的两个主要障碍:复杂推理和规划的表现不佳,以及LLMs使用的决策方法与临床医生的认知过程根本不同,导致用户不信任。该论文提出了一个名为ArgMed-Agents的多智能体框架,旨在通过交互使基于LLMs的代理能够进行可解释的临床决策推理。
- 关键思路ArgMed-Agents通过自我论证迭代和临床决策论证方案来模拟临床论证推理过程,从而生成自我导向的推理解释。这种方法不仅提高了复杂临床决策推理问题的准确性,而且通过提供决策解释增加了用户的信心。
- 其它亮点该论文的亮点在于提出了一个新的多智能体框架,使LLMs能够模拟临床论证推理过程,并提供了决策解释。实验结果表明,ArgMed-Agents在复杂临床决策推理问题上比其他提示方法更准确。该论文还提供了数据集和开源代码。
- 最近的相关研究包括使用机器学习技术进行临床决策预测和使用自然语言处理技术进行医疗文本分类。其中一些研究包括“使用机器学习算法进行心脏病预测”和“使用深度学习算法进行医疗文本分类”。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流