- 简介最近,无论是闭源的LLMs还是开源社区,都在各个通用领域中取得了重大进展,超过了人类的表现。然而,在特定的专业领域,比如医学,特别是在开源社区中,它们的表现仍然不够优秀,因为医学知识的复杂性。我们提出了Aquila-Med,这是一个基于Aquila的双语医学LLM,通过持续的预训练、监督微调(SFT)和从人类反馈中强化学习来解决这些挑战。我们构建了一个大规模的中英文医学数据集,用于持续预训练和高质量的SFT数据集,涵盖了广泛的医学专业。此外,我们还开发了一个高质量的直接偏好优化(DPO)数据集,以进一步对齐。 Aquila-Med 在单轮、多轮对话和医学多项选择题方面取得了显著的成果,展示了我们方法的有效性。我们开源了数据集和整个训练过程,为研究社区提供了宝贵的资源。我们的模型和数据集将在https://huggingface.co/BAAI/AquilaMed-RL上发布。
- 图表
- 解决问题论文旨在设计一种双语医学LLM,名为Aquila-Med,通过持续预训练、监督微调和人类反馈强化学习等方法,解决医学领域知识复杂性问题,提高模型性能。
- 关键思路Aquila-Med的关键思路是通过持续预训练、监督微调和人类反馈强化学习等方法,使模型能够更好地理解医学知识,并在医学领域的对话和多项选择问题中取得显著成果。
- 其它亮点论文构建了一个大规模的中英文医学数据集,用于持续预训练和高质量的监督微调,同时开源数据集和整个训练过程。实验结果表明,Aquila-Med在医学领域的对话和多项选择问题中表现出色。
- 在医学领域,其他相关研究包括:《基于自然语言处理的医学知识图谱构建与应用》、《基于医学文本的知识图谱构建方法研究》等。
沙发等你来抢
去评论
评论
沙发等你来抢