新资讯:有人盈利、有人降价,中国云厂商的出路在哪?
发布时间:2023-05-17 22:07:18 来源:虎嗅网

题图 | 视觉中国

过去几年的全球云计算市场一直是一片欣欣向荣。美国三大主流云供应商亚马逊AWS、微软Azure和谷歌云的市场份额约占全球总量的66%。这三家头部企业2022年的云计算业务营业利润总和超过3700亿元。

虽然,全球市场有如此景象,但中国云厂商的境况似乎并不乐观。中国云厂商在2022年的营业亏损总额超过100亿元人民币。


(资料图)

与此同时,国内市场的整体增长也有放缓趋势。据IDC最新发布的《中国公有云服务市场(2022下半年)跟踪》报告,2022年下半年中国公有云服务整体市场规模(IaaS/PaaS/SaaS)为188.4亿美元,其中IaaS+PaaS市场同比增速为19%,而2021年上半年的增速是30.6%,下半年的增速是42.9%。

市场整体疲软,厂商盈利困难,在缺乏增量的大环境下,国内云市场的头部玩家们不得不陷入降价的贴身肉搏中。今年年初到现在,国内云厂商相继公布了自己的降价政策,不管盈利与否,市占如何,从厂商到客户都把目光放在了价格上。

不过,随着AI大模型的出现,这一局面似乎正在悄然改变。

对于AI大模型来说,云是AI生长必需的土壤。而大模型则可能成为云厂商的新增长点。5月16日,主打AI大模型和“智能”云的百度,就刚刚公布了云业务在最新一季度实现了盈利(non-GAAP)的消息,收入同比增长8%至42亿元。

“ChatGPT相对于其他大模型来说,最大的优势就在于先发。”多位大模型研发专家告诉虎嗅,先发大模型就意味着更高的人气,更多的数据,模型的训练过程也会积累更多高质量的Feedback(反馈)和Fine-tuning(微调),从而在模型能力上保持领先。作为国内首发AI大模型的云厂商,百度智能云的业绩增长比大洋彼岸的Azure智能云更迅猛。

AI大模型提供的智能化能力对于企业来说,明显不是同质化的算力可以比拟的。云企业对“智能”云的采购,不再像“买电脑”,而更像是“买服务”,根据自己的业务需求,买对应功能的AI大模型。

用云企业要获得AI大模型能力,就得去找那些具备AI大模型能力,且基础设施能跑通、跑好AI大模型的供应商。具备AI大模型能力的“智能”云供应商们,正在中国云市场的价格战场上另辟蹊径,找到一条不打价格战的制胜之路。

大模型能给云带来什么?

“不管ChatGPT未来怎么赚钱,Azure智能云将靠AI大模型大赚一笔已经是确定的了。”某云厂商NLP业务专家告诉虎嗅,ChatGPT生长在Azure智能云上,可以说是给Azure打了一个大大的“广告”。

尽管微软广泛接入GPT业务的实质性回报还未凸显,但越来越多的企业开始使用Azure OpenAI服务跑大模型。微软的最新一季财报显示,Azure OpenAI已经拥有2500位客户,环比增长10倍;而Github面向企业的AI Copilot已经获得10000个客户。微软主营的智能云业务营收为220.81亿美元,同比增长16%,略超预期的219.4亿美元。

“文心一言发布之前,来百度交流大模型的客户级别都非常高,都是CEO、大老板带队,很多一把手、二把手来的。我们讲的内容都属于科普,他们觉得这个事很重要。”百度集团副总裁侯震宇近日在接受媒体时说,现在,前来交流的企业已不是一把手,而是实际在内部做事的人。他们希望更快使用上大模型,通过大模型的能力提高自己的业务能力,让他们在竞争当中去获得优势。财报中的数据也验证了侯震宇的观点,2023年3月,百度智能云销售线索同比增长超过400%。

云无疑是大模型研发、商业化落地必不可少的关键基础设施。大模型的核心三要素算力、数据和算法,也都与云厂商的服务息息相关。

首先是算力,要跑AI大模型,首先得有大算力。AI大模型往往需要大量的GPU、TPU等算力资源进行训练与推理,这需要云服务商提供强大的异构计算服务来满足。而算力正是云厂商最基础的业务和产品。

在数据方面,AI大模型需要大量数据进行训练,同时也会产生大量的中间数据,这就需要云服务商提供PB级甚至EB级的海量存储空间。同时,AI大模型在训练期间需要频繁读取数据,产生大量网络IO,这要求云服务商具备高速、低延迟的网络连接能力。

基于算力和数据的能力,基本集中在云技术的IaaS(基础设施即服务)层。云计算产业链从底层的IaaS,到中间层的PaaS(平台即服务),再到上层的SaaS(软件即服务),业务模块通用性越来越弱,产品差异化定价能力逐步增强,毛利率逐步提升。目前国内云市场的竞争焦点集中在IaaS层,然而单纯的IaaS业务毛利率相对较低,且同质化严重,这也导致了国内云市场身陷价格战,且很难盈利。由此,云厂商竞争的差异点也就落到了更高层级的PaaS、SaaS,以及由AI大模型而生的MaaS(模型即服务),也就是大模型的算法和底层技术实力。

不是每个企业都像OpenAI一样用云的目的是研发GPT,多数企业还是希望AI大模型、智能云能像工具一样为自身的业务服务。因此,大多数企业对于智能云需求更聚焦在基于AI大模型的技术支持,这也就形成了不同厂商之间差异化竞争的关键。

首先自然是模型能力,客户要在业务中部署AI大模型,而不是自己研发AI大模型,如果云厂商本身有一款完成度很高,且可以适用各种场景的模型产品,那当然再好不过了。

其次,在这款模型产品的背后要有AI框架与工具的支持。云服务商要给客户提供易用的AI大模型服务,云服务商需要提供主流的AI开发框架(如TensorFlow、PyTorch、飞桨PaddlePaddle等)与完备的开发工具,以帮助用户快速开发与部署AI大模型。

此外,供应商还需要具备持续优化服务的能力。AI技术和大模型不断演进,这要求云服务商持续迭代更新服务,增强AI基础服务性能,优化AI框架与工具,以满足AI大模型的不断发展需求。

最后是AI全产业链服务能力。从模型研发、训练、部署到产业应用,需要云服务商提供覆盖AI全产业链的服务,这也是部署AI大模型的重要保障。

大模型时代的AI公有云

事实上,智能云业务并非始于大模型时代,IDC最新发布的《2022 H1中国AI云服务市场研究报告》显示,2022年中国AI公有云服务市场规模将达74.6亿元人民币,占AI软件整体市场的16.5%,较2021年呈上升趋势。

在AI大模型到主要细分领域NLP市场中,自2022上半年开始,这一领域已经实现了68%的同比增长。未来自然语言处理大模型的进一步普及将为市场带来新一轮增长,市场发展的重点应用场景为情感分析、营销管理等。另一方面,将NLP技术产品服务嵌入各大厂商的全栈式平台也是重点方向。

此外,全栈式的对话AI平台也是厂商产品服务及技术整合的发展方向,2022上半年对话式AI同比增速达114%,成为人工智能公有云增长速度最快的子领域。

以上数据均是对2022年上半年市场表现的统计,而彼时ChatGPT还尚未出世。预计在2023年,这一数字或将有一个爆炸式的增长,在AI大模型时代,智能云、AI公有云服务,势必会成为云市场的主流。

在IDC的这份报告中,虽然人工智能整体市场受到技术的突破的影响,格局变化较大,但AI公有云服务厂商市场格局相对稳定。2022上半年,在整体市场及多个细分领域市场中,以智能云为立身之本的百度都跑在了市场前列,且已经有大量应用案例落地,并在一些垂直行业实现了复用。

例如智慧水务解决方案,百度智能云将自研的用于预测用水和控制水压的人工智能解决方案从泉州自来水公司复制到广州白云区水务,第一季度,大部分标准化解决方案又成功复制到甘肃省临洮县自来水公司。

在制造行业中,百度与长安汽车合作,构建了人工智能基础设施平台和数字人平台,双方基于百度文心大模型正在开发一款智能产品,赋能长安汽车一款量产车型,打造创新性的用户体验和持续的研发动能。

在“红海”里卷出盈利,百度智能云做对了什么?

对于国内云厂商来说,扭亏为盈是一个重要的里程碑。过去的六个季度,百度智能云收入增速分别为55%、71%、73%、60%、45%、31%,均高于云计算市场的规模增速。2021年百度智能云业务营收151亿元,同比增长了64%。云业务在百度营收中的占比持续上升。

虽说百度智能云此次利润翻红,是建立在业绩长期增长的基础之上。但从长远来看,云业务盈利的预期早已与AI大模型时代的红利牢牢绑定。

3月27日,百度首次宣布了基于智能云的“文心千帆大模型平台”,并向首批企业客户启动内测,并与不同领域客户联合研发,在智能办公、旅行服务、电商直播、政务服务、金融服务五大领域打造行业样板间。截止目前,已有超过300家生态伙伴参与文心一言内测,在400多个企业内部场景取得测试成效。

值得一提的是,百度公布的这400余企业,不只是秀秀数字而已,其中不乏已经官宣合作案例的企业,目前,用友、金山、携程等多家企业,都已经宣布了结合文心千帆开发的AI大模型的应用产品。

“文心千帆大模型平台”简单讲,就是用云企业可以自行在百度智能云上调用部署的“文心一言”或者第三方大模型,还配备了大模型开发和应用的整套工具链。

事实上,要在云服务器中实现AI大模型能力,并不容易。首先你得有个可以用的AI大模型。如今国内AI市场的“百模大战”已经进入白热化,不管以前是做什么的,现在都要插一脚大模型。然而,AI大模型不是发个模型就能用了,还需要对模型进行持续地更新迭代与维护。

而这就要考验AI供应商、云供应商的技术实力了,也正是云“智能”的一个卖点。

自3月16日文心一言上线以来,一个月内文心一言推理服务已完成4次迭代,目前已升级至3.5版本。在业内首创支持动态插入的分布式推理引擎,单机QPS(每秒查询率)相对线上版本提升123%。相对于第一版大模型推理服务,文心一言的单机QPS累计提升近10倍,这意味着大模型推理的成本降低为原来的1/10,换句话说,可以并发为原来10倍数量的用户提供服务。

此外,在这4次迭代过后,文心一言的模型推理性能提升了50%,模型算力利用率提升1倍。这意味着文心一言的进化更快了,大模型在用户反馈中持续不断的学习,推理作为大模型应用的关键,其性能的提升直接影响到产品的使用效果。文心千帆大模型平台目前提供公有云服务、私有化部署两大交付模式。

在5月9日的文心大模型技术交流会上,百度智能云在国内首次演示了如何微调行业专属大模型的全过程。文心千帆大模型平台提供了可视化开发工具链,提供了数据生成、标注、回流的数据闭环管理功能。客户以少量数据即可发起模型微调,最快几分钟就可获得自己的专属大模型。

除此之外,百度智能云在算力方面也为AI大模型提供了诸多加成。2022年11月百度智能云发布全栈自研的AI基础设施百度AI大底座,面向企业AI开发提供端到端的解决方案,是百度各项AI技术的集大成者,将AI生产全要素,包括芯片、深度学习框架、大模型集于一身。企业不再需要把大量成本花在构建基础设施上,而可以像使用水电能一样按需取用,真正实现AI生产全流程降本增效。

用友网络副总裁、用友研究院院长吕建伟认为,中国企业关注大模型的落地能力,一个简单的智能问答背后有着非常复杂的加工过程。用友期望和智能云供应商一起,把微调、性能调优等工具简化,推动大模型应用。

“大家可能会觉得堆积算力、写好代码、然后进行模型训练,把它跑起来就行了。实际上在训练过程中会遇到各种各样的挑战,很少有人能够使一个大模型训练过程能够在连续一两天内不出问题。百度AI大底座可以为大模型提供高效、稳定的训练和有效的收敛。千卡加速比达到90%,资源利用率70%,开发效率提升100%。这是AI大底座为大模型的开发和应用带来的价值。”百度智能云云计算产品解决方案和运营部总经理宋飞表示。

基于AI大模型的云服务能力也正在改变云服务市场的格局,随着云服务的新模式形成,群雄割据的国内云市场,可能很快就会划分出“智能云和其他云”的新格局。

标签: