Melanie Subbiah是哥伦比亚大学计算机科学博士研究生,她和Kathleen McKeown教授一起研究自然语言处理。她是GPT-3论文四位共同一作之一。
在攻读博士学位之前,她先是在苹果公司(Apple)担任研究工程师,后来又在OpenAI担任研究工程师。在OpenAI,她致力于GPT-3,随后基于GPT-3构建API。Melanie的研究重点是自然语言的生成和理解。
GPT-3: Few-Shot Learning with a Giant Language Model
最近的工作表明,通过对大量文本语料库进行预训练,然后对特定任务进行微调,在许多NLP任务和基准测试方面取得了实质性进展。虽然这种方法在架构中通常与任务无关,但它仍然需要成千上万个样例的特定于任务的微调数据集。相比之下,人类通常只通过几个例子或简单的指令就能完成一项新的语言任务——这是目前的NLP系统在很大程度上难以做到的。我将讨论GPT-3,这是一种具有1750亿个参数的自回归语言模型,它演示了如何扩大语言模型可以极大地改善与任务无关的、少样本的性能,有时甚至可以达到与先前的最先进的微调方法相媲美的竞争力。GPT-3可以应用于没有任何渐变更新或微调的任务,与少数样本演示指定纯粹通过文本与模型的交互。我将概述GPT-3是什么以及它是如何工作的,讨论我们从这样一个系统中看到的功能,以及它们如何启用与语言模型交互的新方式,此外还将关注这些交互带来的局限性和更广泛的问题。
https://nlp.stanford.edu/seminar/details/melaniesubbiah.shtml
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢