Language Models are Few-Shot Learners: 开箱即用的GPT-3(一)

这篇论文就是大名鼎鼎的GPT-3的论文,从标题上看基本上就能看出这篇文章的主旨:少样本学习(Few-Shot Learners)。

这一篇主要讲的是GPT-3模型如何牛逼,在各种任务中的表现,但是没有详细介绍模型结构,就说了是基于Transfomer结构。

摘要

摘要阐述了当前NLP模型中的一般方法,就是使用一个预训练模型拿过来,然后再使用某个语言处理领域的大量数据( thousands or tens of thousands of examples)去进行训练(task-specific fine-tuning),比如文章中提到的完形填空,问答等不同方式的语言处理任务。而这篇模型提出来的GPT-3模型,目标就是在NLP领域做到开箱即用,用很少的样例(Few-Shot),或者是不需要任何样例(Zero-Shot)来完成NLP中的所有领域任务。因为人对于各种NLP任务都是这个样子的。
Recent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre-training on a large corpus of text followed by fine-tuning on a specific task. While typically task-agnostic in architecture, this method still requires task-specific fine-tuning datasets of thousands or tens of thousands of examples. By contrast, humans can generall

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

新兴AI民工

码字不易,各位看客随意

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值