AmazUtah_NLP at SemEval-2024 Task 9: A MultiChoice Question Answering System for Commonsense Defying Reasoning

Proceedings of the 18th International Workshop on Semantic Evaluation (SemEval-2024)
2024年05月16日
  • 简介
    这篇论文介绍了SemEval 2024 BRAINTEASER任务,该任务是自然语言处理(NLP)领域的一项开创性工作,它关注的是横向思维——这是传统语言分析经常忽视的认知推理维度。该任务包括句子拼图和单词拼图两个子任务,旨在测试语言模型的发散思维能力。本文介绍了我们对BRAINTEASER任务的方法,我们采用了一种全面的策略,利用了多选架构中的尖端预训练模型,并通过句子和单词拼图数据集来使训练数据多样化。为了进一步提高性能,我们使用了合成幽默或笑话数据集和RiddleSense数据集进行微调,从而增强了模型的横向思维能力。实证结果表明,我们的方法在句子拼图子任务中实现了92.5%的准确率,在单词拼图子任务中实现了80.2%的准确率。
  • 解决问题
    本论文旨在通过语言谜题的形式测试语言模型的发散思维能力,探讨自然语言处理中常被忽视的认知推理维度。
  • 关键思路
    本文采用综合策略,利用多项选择结构的先进预训练模型,并通过句子和单词谜题数据集来使模型多样化。此外,通过使用合成幽默或笑话数据集和RiddleSense数据集来微调模型,提高其发散思维能力。
  • 其它亮点
    本文实验结果表明,在句子谜题子任务中,准确率达到了92.5%,在单词谜题子任务中,准确率达到了80.2%。值得注意的是,本文采用了综合策略,通过使用多项选择结构的先进预训练模型和多个数据集来使模型多样化。此外,本文使用了合成幽默或笑话数据集和RiddleSense数据集来微调模型,提高其发散思维能力。
  • 相关研究
    最近在这个领域中,还有一些相关研究。例如,题为“Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer”的论文探讨了如何通过迁移学习来提高自然语言处理模型的性能。另一篇论文“BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension”介绍了一种新的预训练模型,该模型在多个自然语言处理任务上表现出色。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论