CatMemo at the FinLLM Challenge Task: Fine-Tuning Large Language Models using Data Fusion in Financial Applications

2024年07月02日
  • 简介
    这篇论文介绍了我们在IJCAI-2024 FinLLM挑战赛中的解决方案,研究了在金融任务的三个关键领域中,即金融分类、金融文本摘要和单只股票交易中,LLMs的能力。我们采用了Llama3-8B和Mistral-7B作为基础模型,并通过参数高效微调(PEFT)和低秩适应(LoRA)方法进行了微调。为了提高模型性能,我们将任务1和任务2的数据集进行了数据融合。我们的方法旨在全面和综合地解决这些不同的任务,展示LLMs在提高准确性和决策能力方面处理各种复杂金融任务的能力。
  • 图表
  • 解决问题
    本论文旨在通过采用大型语言模型(LLMs)来解决金融任务中的三个关键领域:金融分类、金融文本摘要和单只股票交易。
  • 关键思路
    该论文采用了参数高效微调(PEFT)和低秩适应(LoRA)方法,结合任务1和任务2的数据集进行数据融合,以提高模型性能。
  • 其它亮点
    本论文的亮点在于综合且整合性地解决了金融任务中的多个领域,并展示了LLMs在提高准确性和决策能力方面的潜力。实验采用了Llama3-8B和Mistral-7B作为基础模型,并结合PEFT和LoRA方法进行微调。
  • 相关研究
    近期在金融领域中的相关研究包括:1.《利用深度学习进行财务预测的比较研究》2.《基于金融文本数据的情感分析方法研究》3.《金融知识图谱构建与应用综述》
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论