原论文标题: Language Models are Few-Shot Learners 作者: Tom B. Brown 等 arXiv: 2005.14165
GPT-3 拥有 1750 亿参数,是当时规模最大的语言模型之一。论文展示了在无需微调的情况下,通过 Prompt 进行 Few-shot / Zero-shot 学习即可在多种 NLP 任务上取得强大表现。