OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  论文  ›  arxiv:2005.14165

GPT-3:基于大规模参数的少样本学习语言模型

 
  unittest ·  2020-05-28 00:00:00 · 1 次点击  · 0 条评论  

GPT-3:基于大规模参数的少样本学习语言模型

原论文标题: Language Models are Few-Shot Learners
作者: Tom B. Brown 等
arXiv: 2005.14165


论文简介

GPT-3 拥有 1750 亿参数,是当时规模最大的语言模型之一。论文展示了在无需微调的情况下,通过 Prompt 进行 Few-shot / Zero-shot 学习即可在多种 NLP 任务上取得强大表现。


技术意义

  • 推动 Prompt Learning 范式
  • 证明模型规模对能力的关键影响
  • 引发大模型时代的技术浪潮
1 次点击  ∙  0 人收藏  
登录后收藏  
目前尚无回复
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor