- 简介大型语言模型(LLMs)的性能可能因相同任务的不同提示或指令而有所不同。这种现象通常被认为是模型对给定提示或指令的熟悉程度所导致的,这通常可以通过它的困惑度来估计。然而,鉴于可能提示短语的巨大空间,找到困惑度最低的提示是具有挑战性的。在本文中,我们提出了单调释义(MonoPara),这是一种端到端的解码策略,它基于提示释义的复述LM和一个目标LM(即提示或指令执行器),对给定的提示或指令进行释义,以生成更低困惑度的提示或指令。该集成解码过程可以有效地释义原始提示,而不改变其语义含义,同时通过目标LM计算每个生成的困惑度单调递减。我们详细探讨了MonoPara的贪婪和基于搜索的两种替代解码方案。值得注意的是,MonoPara不需要任何训练,可以单调降低释义后提示或指令的困惑度,并在广泛的任务选择中得到了零-shot LM提示的改进性能评估。此外,MonoPara还被证明可以有效地提高LM在扰动和未见过的任务指令上的泛化能力。
- 图表
- 解决问题论文旨在解决LLMs在不同提示下性能差异的问题,提出了一种基于语义保持的重述策略MonoPara,以降低提示的perplexity,并提高零样本LM提示的性能。
- 关键思路MonoPara通过使用一个提示重述LM和一个目标LM的集合解码过程,将给定提示重述为perplexity更低的同义提示,同时保持语义不变。这种解码过程可以有效地降低提示的perplexity,并提高LM的性能。
- 其它亮点论文提出的MonoPara不需要训练,可以通过两种不同的解码方案(贪心和基于搜索的)来重述提示并降低perplexity。实验结果表明,MonoPara可以有效地提高LM的性能,并提高其在扰动和未见任务指令上的泛化能力。论文使用了多个数据集进行实验,并开源了代码。
- 最近的相关研究包括使用对抗训练来提高LM的鲁棒性,以及使用数据增强方法来提高LM的泛化能力。相关论文包括“Adversarial Training Methods for Robust Machine Learning”,“Data Augmentation Techniques for Training Language Models”等。
沙发等你来抢
去评论
评论
沙发等你来抢