Automating Research Synthesis with Domain-Specific Large Language Model Fine-Tuning

2024年04月08日
  • 简介
    这项研究开创了使用经过微调的大型语言模型(LLMs)自动化系统性文献综述(SLRs)的先河,为整合人工智能以增强学术研究方法论做出了重要而新颖的贡献。我们的研究采用了最新的微调方法和开源的LLMs,展示了一种实用而有效的方法来自动化包括知识综合在内的SLR过程的最终执行阶段。结果表明,LLM响应的事实准确性保持了高度的保真度,并通过对现有符合PRISMA标准的SLR的复制进行了验证。我们的研究提出了缓解LLM幻觉的解决方案,并提出了跟踪LLM响应其信息来源的机制,从而展示了这种方法如何满足学术研究的严格要求。最终的发现证实了经过微调的LLMs在简化各种耗时的文献综述过程方面的潜力。鉴于这种方法的潜力和其在所有研究领域的适用性,这项基础研究还倡导更新PRISMA报告指南,以纳入基于人工智能的过程,确保未来SLRs的方法透明性和可靠性。这项研究扩大了人工智能增强工具在各种学术和研究领域的吸引力,为以更高效的方式面对不断增长的学术研究数量进行全面准确的文献综述设立了新标准。
  • 图表
  • 解决问题
    本论文旨在探索利用Fine-tuned Large Language Models(LLMs)自动化系统性文献综述(SLR)的方法,以提高学术研究方法的效率和可靠性。
  • 关键思路
    利用最新的Fine-tuning技术和开源的LLMs,提出了一种实用高效的方法来自动化SLR过程中的知识综合阶段,并提出了减轻LLM幻觉的解决方案和跟踪LLM响应的机制。
  • 其它亮点
    实验结果表明,利用Fine-tuned LLMs可以在维持高准确度的同时提高文献综述的效率,论文还呼吁更新PRISMA报告指南以纳入基于AI的过程,以确保未来SLRs的方法透明性和可靠性。
  • 相关研究
    近期的相关研究包括基于AI的文献综述方法的探索和改进,如《An Overview of Systematic Literature Review Research in the Field of Artificial Intelligence》和《A Hybrid Approach for Systematic Literature Review in the Field of Artificial Intelligence》。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论