作者丨何思思
编辑丨林觉民
3月16日,百度 “文心一言”正式发布,基于百度智能云同步开放预约测试。
近段时间,与文心一言一样火爆出圈的还有GPT-4,他们的出现意味着新一轮的人工智能变革和挑战正式打响,云厂商将展开了一场与通用智能相关的产业竞赛。
百度公司首席执行官李彦宏认为,AI对各行各业的颠覆性改变才刚刚开始。大模型时代将产生三大产业机会,分别是新型云计算公司、可以进行行业模型精调的公司、基于大模型底座进行应用开发的公司。
云计算格局迎新变化,云厂商难解大模型之困
云计算走过了发展的黄金十年。
在过去的十年里,我国云计算产业年均增速曾超30%,是全球增速最快的市场之一。
所谓市场有多繁荣,竞争就有多激烈。在前十年云厂商大都以卖算力、卖存储为主,“集成和总包”是云厂商为了实现规模化增长普遍采用的方式。
但从具体实践来看,这种打法不仅没有把云计算变成招财猫,反倒成了吞金兽。从一定意义上说,总包集成是一种畸形且不健康的商业路径。本质上就是什么都做,并且大部分项目有着大量的定制化需求,需要投入大量的人力物力;另外一些项目没有含金量,完全是为了刷流水而做。
长此以往,云厂商需要面对入不敷出,业务很难发展下去的挑战。
以阿里云为例,在之前的12年里一直处于亏损状态,直到2021年才扭转了这一局面,但利润率只有2%。市占率方面,相关数据统计发现,近两年阿里云、腾讯云、华为云等头部云厂商的增长持续放缓,就连最早入局云计算的阿里云的市占率也呈现连年走低趋势。
也正是在这时,云厂商认识到了不能再扮演总包集成商的角色,要从规模性增长向健康且有质量的增长转变,于是阿里云、腾讯云等一众云厂商开始调整策略,试图从集成商的角色向被集成角色倾斜。
但与之而来的是,互联网流量见顶,数字化转型进程加快,云厂商的服务对象开始从互联网企业向政企、制造业甚至是下沉市场转变。
这时企业对云厂商的需求也不再是算力、存储等基础云服务,而更加聚焦AI服务层面。有机构预测到,2020年中国83.4%的企业重视人工智能,ChatGPT等生成式AI产品火出圈后,企业对人工智能的需求再次攀升。
提供人工智能,首先想到的就是大模型。经过反复的实践得出:大模型才是人工智能的发展趋势和未来,其能实现 AI从“手工作坊”到“工厂模式”的转变。
在传统模型中,根据不同场景,需要定制不同的算法模型,无法实现通用化可复制化。研发阶段,为了应对各式各样的场景需求,AI 研发人员需要设计专网专用的个性定制化神经网络模型;落地阶段,经“一个场景一个模型”式的作坊式模型开发得到的模型在许多垂直行业场景任务不通用,无论对于企业还是云厂商来说,都是一笔不小的支出。
而大模型备自监督学习的能力,能够有效降低 AI 开发和训练成本,同时可以适配各种场景。此外基于用户的使用反馈,还可实现自主迭代升级。之于企业最大的意义就是,降低AI使用门槛,让企业能够像还是用水煤电一样,方便快捷的使用各种AI能力。
李彦宏认为,大模型时代将产生三大产业机会:
第一类是新型云计算公司,其主流商业模式从IaaS变为MaaS。文心一言将根本性地改变云计算行业的游戏规则。之前企业选择云厂商更多看算力、存储等基础云服务。未来,更多会看框架好不好、模型好不好,以及模型、框架、芯片、应用这四层之间的协同。
第二类是进行行业模型精调的公司,这是通用大模型和企业之间的中间层,他们具有行业Know-how,调用通用大模型能力,为行业客户提供解决方案。目前,百度文心大模型已经在电力、金融、媒体等领域,发布了10多个行业大模型。
第三类是基于大模型底座进行应用开发的公司,即应用服务提供商。李彦宏认为,在文本生成、图像生成、音频生成、视频生成、数字人、3D等场景可能出现未来的新巨头。
因此,早在几年前国内头部厂商以及就开始了相关大模型的研究与实践,甚至有些头部云厂商还推出了自家的大模型。诸如去年9月阿里达摩院推出“通义”大模型,此外,为推进中文大模型的开源生态建设推出了 AI 模型开源社区「魔搭」;京东推出了言犀大模型;华为推出了盘古大模型等等。
但从目前来看,国内大模型仍处于早期,还没到能真正落地应用的商业化阶段。
算力规模大且性能要求高、数据规模大,且数据质量参差不齐、训练难度大且成本高,堆砌了一道国内企业难以闯进的围墙。
“算力是企业通往大模型的拦路虎,也正是目前大模型不能真正落地的巨大挑战,”几乎已经成了行业共识。
大模型由于参数规模大、数据体量大通常需要强大的算力支持,而算力的核心是人工智能芯片。美国市场研究机构TrendForce在3月1日的报告中测算称,处理1800亿个参数的GPT-3.5大模型,需要的GPU芯片数量高达2万枚,未来GPT大模型商业化所需的GPU 芯片数量甚至超过3万枚。
“缺少芯片会导致算力不足,算力不足意味着无法处理庞大的模型和数据量。”有专业的云计算技术人员曾计算过:1万枚英伟达A100芯片是做好AI大模型的算力门槛。
反观目前中国的芯片使用现状,国际环境变化之下自美国实施贸易限制政策以来,中国企业只能使用英伟达A100的最佳替代品A800芯片,但是A800芯片在中国市场严重缺货,而国内少有企业具备自研高性能芯片的能力。
除算力算法外,模型训练也是一项既耗时又耗钱的工作。训练周期方面,训练一个如ChatGPT的模型通常需要几天甚至数周的时间;
训练成本方面,据国盛证券报告《ChatGPT 需要多少算力》 估算,GPT-3 训练一次的成本约为 140 万美元,对于一些更大的 LLM(大型语言模型),训练成本介于 200 万美元至 1200 万美元之间。
以 ChatGPT 在 1 月的独立访客平均数 1300 万计算,其对应芯片需求为 3 万多片英伟达 A100 GPU,初始投入成本约为 8 亿美元,每日电费在5万美元左右。这只是芯片的成本,另外大模型所需的数据采集、人工标注、模型训练等软性成本是难以计算的。
算力算法、运营成本等仍是国内大多数企业无法跨越的关卡。
构建AI大模型,需集齐四张「能力卡」
国内企业很难做出中国版AI大模型似乎已经成了既定事实,但百度文心一言大模型却刷新了行业认知。
从一定程度上说,ChatGPT以及百度文心一言大模型的出现,是厚积薄发的自然结果。
清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正也曾对外表示过:放眼国内,最有可能做出中国 ChatGPT 的可能是有综合优势和过去积累和拥有芯片、框架、模型、应用四层技术栈的百度。
百度集团执行副总裁、百度智能云事业群总裁沈抖表示,之前企业选择云厂商更多是看算力、存储等基础云服务,以后企业对云的需求会更加聚焦智能服务,会更多看框架好不好、模型好不好,以及芯片-框架-模型-应用这四层架构之间的协同是否高效。
具体来看,算力层面,百度自研芯片“昆仑芯”在AI计算、存储、加速、容器方面进行系统优化,提供高性价比的算力,承载海量数据的处理、超大模型的训练和推理,目前已经在多个场景实际部署几万片。
另外,百度还拥有多个云计算可用区,诸如阳泉、徐水、定兴云计算中心,其中阳泉智能云数据中心一期就可承载16万台服务器,预计整个百度阳泉云计算中心可承载24万台服务器;
百度目前已在山西阳泉、江苏盐城等地建设智算中心。其中,百度阳泉智算中心是亚洲最大单体智算中心,建设规模为4 EFLOPS(每秒400亿亿次浮点运算)AI算力,可满足各行业超大规模AI计算需求。
昆仑芯科技战略负责人宋春晓表示:“人工智能芯片是算力的核心,昆仑芯2代已在百度文心大模型的应用中广泛落地,并为各行各业的智能化升级提供AI算力支持。”
据了解,百度智算中心持续创新计算架构,支持智算时代下企业不同业务场景的计算任务,提升企业的业务效率和创新能力。目前,百度智算中心已支持了文心预训练大模型、生物计算、自动驾驶等前沿AI应用。同时,基于自研创新技术可使PUE低至1.08,实现了高效节能的运行,从而降低客户的电费和运维成本。
深度学习框架层面,作为人工智能的底层操作系统——飞桨深度学习平台向下适配各种硬件,支持文心大模型的开发、高性能训练、模型压缩、服务部署的各种能力,截止2022年底已凝聚535万开发者,基于飞桨创建了67万个模型,服务20万家企事业单位,贯通了AI全产业链,串联起全栈化的产业生态体系。
文心大模型层面,则已经形成知识增强的ERNIE 3.0系列、跨模态系列等底座模型,在原有能源、金融、航天、传媒等行业的基础上,进一步升级到了11个行业大模型,将行业大模型延伸到了制造业、城市管理、汽车等关键领域。目前,百度已经实现了“0到1”做标杆的阶段,进入到了“从1-到3”的复制推广阶段。
这都为百度打造文心一言奠定坚实的技术基础,雷峰网了解到,自文心一言对外官宣后,已经有包括互联网、媒体、金融、保险、汽车、企业软件等行业的 400 多家头部企业宣布加入百度“文心一言”生态,且这个生态还在持续扩大。
为支持文心一言超大规模计算需求,进一步实现文心一言的产业化落地,去年年底开始,百度智能云已经通过三大动作全面升级云服务能力:2022年12月,发布国内首个全栈自研的AI基础设施“AI大底座”;2023年2月,升级AI研发运营一体化(MLOps)能力;2023年3月,百度阳泉智算中心完成升级。
值得一体的是,去年百度智能云还推出了“云智一体3.0”架构,并发布首个全栈自研的AI基础设施“AI大底座”。
其中,“云智一体3.0”架构,形成了一套“芯片-框架-大模型-行业应用”的智能化闭环路径,每一环都有关键自研技术,每一环之间都能形成信息反馈,通过不断获得反馈,实现端到端优化。
百度AI大底座则在AI IaaS层,整合AI芯片“昆仑芯”,在AI计算、存储、加速、容器方面进行系统优化,提供高性价比的算力,承载海量数据的处理、超大模型的训练和推理;在AI PaaS层,整合飞桨深度学习框架及百度文心大模型,打通百度的样本中心、模型中心、AI开发平台、AI服务运行平台,实现从数据存储到模型训练、生产、部署、测试的全链路、批量化生产,面向企业模型开发的全生命周期提供完整解决方案。
而面对高昂的训练成本问题,百度毫不吝啬在AI领域的研发投入力度。相关数据显示,2022年研发费用达214.16亿元,占百度核心收入比例达22.4%,百度第四季度的研发支出为57亿元,截止现在研发费用占百度核心收入比例已经连续 9个季度在20%以上。
写在最后
云计算发展从黄金期过渡到瓶颈期,以卖资源抢占市场的时代已经结束,与之而来的是通用智能化时代。在这个时代,谁先基于大模型抢先开发重要的应用服务在这个时代,谁能推出通用化可复制化的智能化解决方案,谁就能在下一个云计算发展的十年中占据有利位置。
雷峰网(公众号:雷峰网)了解到,从3月16号开始,文心一言正式开放预约,至3月17日下午2点,排队申请百度智能云 文心一言企业版API调用服务测试的企业用户突破8万家。感兴趣的读者可直接搜索“百度智能云”进入官网,申请加入文心一言的云服务测试。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。