Large Language Models as General Pattern Machines

解决问题:本论文旨在探究大型语言模型(LLMs)是否能够自动完成复杂的令牌序列,并且研究这种零样本能力如何应用于机器人领域的问题。这是否是一个新问题?这是一个新的研究方向。

关键思路:本论文的关键思路是使用预训练的LLMs完成复杂的序列模型,探究其是否可以应用于机器人领域。相比当前领域的研究,本论文的思路在于将自然语言处理技术应用到机器人控制领域,这是一个新的研究方向。

其他亮点:本论文的实验设计了多个任务,包括数值序列预测和轨迹规划等。实验使用了多个数据集,并且在实验中展示了LLMs的零样本能力。论文没有开源代码。这种思路值得进一步深入研究。

关于作者:本文的主要作者来自斯坦福大学、谷歌和伯克利大学等机构。他们之前的代表作包括《Attention Is All You Need》和《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》等。

相关研究:近期其他相关的研究包括《Learning to Learn from Demonstrations for Real World Reinforcement Learning》(Jie Tan等,加州大学伯克利分校)和《Learning to Simulate for Physical Scene Understanding and Robotic Manipulation》(Yuke Zhu等,加州大学伯克利分校)。

论文摘要:本文观察到,预训练的大型语言模型(LLMs)能够自回归地完成复杂的标记序列,从由概率上下文无关文法(PCFG)随机生成的任意标记序列,到在抽象推理语料库(ARC)中发现的更丰富的空间模式,这是一个通用的人工智能基准,以ASCII艺术的风格提示。令人惊讶的是,即使使用从词汇表中随机抽样的标记表示序列,模式完成的熟练程度仍然可以部分保留。这些结果表明,在没有任何额外训练的情况下,LLMs可以作为通用的序列建模器,通过上下文学习驱动。在本文中,我们研究了如何将这些零样本能力应用于机器人问题——从推断代表随时间变化的状态的数字序列以完成简单的动作,到按最小到最多的提示奖励条件轨迹,可以发现和表示闭环策略(例如CartPole的稳定控制器)。虽然由于延迟、上下文大小限制和计算成本等原因,目前很难在真实系统中部署,但使用LLMs驱动低级控制的方法可能为将单词之间的模式转移到行动提供了令人兴奋的一瞥。

内容中包含的图片若涉及版权问题,请及时与我们联系删除