GPT-3
维基百科,自由的 encyclopedia
生成型预训练变换模型 3 (英语:Generative Pre-trained Transformer 3,简称 GPT-3)是一个自回归语言模型,目的是为了使用深度学习生成人类可以理解的自然语言[1]。GPT-3是由在旧金山的人工智慧公司OpenAI训练与开发,模型设计基于谷歌开发的 Transformer 语言模型。GPT-3的神经网络包含1750亿个参数,需要700GB来存储,为有史以来参数最多的神经网络模型[2]。该模型在许多任务上展示了强大的零样本和少样本的能力。[3]
Quick Facts 原作者, 首次发布 ...
原作者 | OpenAI |
---|---|
首次发布 | 2020年6月11日,3年前(2020-06-11) (beta) |
当前版本 | 2023年2月13日,14个月前(2023-02-13) |
原始码库 | https://github.com/openai/gpt-3 |
取代 | GPT-2 |
由…取代 | GPT-4 |
类型 | |
许可协议 | 专有 |
网站 | openai |
Close
OpenAI于2020年5月发表GPT-3的论文,在次月为少量公司与开发人团发布应用程序接口的测试版。微软在2020年9月22日宣布获取了GPT-3的独家授权[4]。
GPT-3被认为可写出人类无法与电脑区别的文章与字符串,GPT-3原始论文的作者们警告了GPT-3有可能对于社会的负面影响,比如利用制造假新闻的可能性。英国《卫报》即使用GPT-3生成了一个关于人工智慧对人类无威胁的评论专栏[5]。李开复称卷积神经网络与GPT-3为人工智慧重要的改善,两者皆是模型加海量数据的成果[6]。