人工智能|AI大模型,AI赛道一场不能输的“钞”能力军备竞赛?
文章图片
偲睿洞察,作者丨蔡凡从2020年开始,国际最顶尖的AI技术发展,愈来愈像一场比拼资金与人才的军备竞赛 。
2020年,OpenAI发布NLP预训练模型GPT-3,光论文就有72页,作者多达31人,该模型参数1750亿,耗资1200万美元;
2021年1月,谷歌发布首个万亿级模型Switch Transformer,宣布突破了GPT-3参数记录;
4月,华为盘古大模型参数规模达到千亿级别,定位于中文语言预训练模型;
11月,微软和英伟达在烧坏了4480块CPU后,完成了5300亿参数的自然语言生成模型(MT-NLG),一举拿下单体Transformer语言模型界「最大」和「最强」两个称号;
今年1月,Meta宣布要与英伟达打造AI超级计算机RSC,RSC每秒运算可达50亿次,算力可以排到全球前四的水平 。
除此之外,阿里、浪潮、北京智源研究院等,均发布了最新产品,平均参数过百亿 。
看起来,这些预训练模型的参数规模没有最大,只有更大,且正以远超摩尔定律的速度增长 。其在对话、语义识别方面的表现,一次次刷新人们的认知 。
本文,我们试图回答三个问题:
1. AI大模型,越大越好吗?
2. 大模型的技术瓶颈在哪里?
3. 它是实现强人工智能的希望吗?
01、大力出奇迹
文章图片
(图片来源:theverge)
人工智能的上一个里程碑出现在2020年 。
这一年,由OpenAI公司开发的GPT-3横空出世,获得了“互联网原子弹”,“人工智能界的卡丽熙”,“算力吞噬者”,“下岗工人制造机”,“幼年期的天网”等一系列外号 。它的惊艳表现包括但不限于:
有开发者给GPT-3 做了图灵测试,发现GPT-3对答如流,正常得不像个机器 。“如果在十年前用同样的问题做测试,我会认为答题者一定是人 。现在,我们不能再以为AI回答不了常识性的问题了 。”
文章图片
艺术家和程序员 Mario Klingemann,想让 GPT-3写一篇论述“上Twitter重要性”的短文 。他的输入条件是 1)题目:“上 Twitter 的重要性”;2)作者姓名:"Jerome K. Jerome" 3)文章开头的第一个字 "It" 。
GPT-3不仅行文流畅,更是在字里行间暗讽,Twitter是一种所有人都在使用的、充斥着人身攻击的社交软件 。
更高级的玩法是,开发者在GPT-3上快速开发出了许多应用,例如设计软件、会计软件、翻译软件等 。
从诗词剧本,到说明书、新闻稿,再到开发应用程序,GPT-3似乎都能胜任 。
为什么相较于以往的AI模型,GPT-3表现得如此脱俗?答案无他,“大力出奇迹” 。
1750亿参数、训练成本超过1200万美元、论文长达 72 页,作者多达 31 人,就连使用的计算也是算力排名全球前五的“超级计算机”,拥有超过 285000个CPU,10000个GPU和每秒400G网络 。
“壕无人性”的结果,创造出两个里程碑意义:
推荐阅读
- iqoo|再现经典赛道传奇!iQOO 9 Pro赛道版开启预售
- 芳纶纤维|再现经典赛道传奇!iQOO 9 Pro赛道版开启预售
- 材质|iQOO 9 Pro赛道版开箱上手体验!
- 美丽新世界|揭秘元宇宙投资骗局,入局风口,不如重仓这个赛道
- 赛道|芳纶纤维为何物?更轻的iQOO 9 Pro赛道版来了
- iqoo|或许能“防弹”?iQOO 9 Pro赛道版的工艺到底什么来头
- 赛道版|军工级芳纶纤维材质黑科技,iQOO 9 Pro赛道版不仅极速还更坚固
- 对手机|挑战史上成本最高手机后盖!iQOO 9赛道版强悍进化
- 材质|iQOO 9 Pro赛道版即将发售 芳纶纤维与顶尖工艺的碰撞
- 人工智能|Meta启示:AI是通往元宇宙的关键变量