作者|林易
编辑|重点君
中国云市场的头部效应正愈发显著。
国际市场研究机构Omdia的最新数据显示,2025年三季度,阿里云在中国云市场的份额从上季度的34%提升至36%,领先优势扩大。同时,阿里云市场份额已连续三个季度保持增长,稳居中国市场第一地位。
这一数字背后有两个值得关注的趋势:一是,在激烈竞争中,阿里云的份额不降反升,且已连续三个季度保持高速增长,领先优势进一步扩大;二是,Omdia报告明确指出,AI日益成为核心云基础设施服务新增需求的主要驱动力,而阿里云则是这场AI云变革中最直接的受益者。
AI业务也正成为阿里云业务增长的强力引擎。阿里巴巴财报显示,阿里云AI相关产品收入已连续九个季度实现三位数同比增长。在云市场整体竞争加剧的背景下,AI业务成为了阿里云真正的第二增长曲线。
在科技领域,一旦某种新技术开始规模化地拉动底层基础设施,正如电力普及拉动了电网建设,移动互联网爆发拉动了4G、5G基站,那么这种增长往往具有极强的惯性和不可逆性。从这个角度,阿里云目前36%的市场份额,是云市场进入AI时代后,头部效应加剧的一个分水岭。
AI拉动加速企业上云2025年的中国云市场,正迎来AI驱动下的全面复苏。IDC此前数据显示,2025年上半年中国公有云市场规模达到1206.69亿元,同比增长接近20%,创下两年来的新高。
云计算行业的发展始终与技术浪潮同频。回顾行业发展历程我们会发现,2014至2020年的移动互联网红利,推动了云计算的第一轮爆发,彼时企业上云的核心需求是实现数字化转型,将线下业务迁移至线上。但2021至2023年,随着移动互联网用户增长见顶、流量红利消退,云市场一度陷入增长失速。
2023年生成式大模型的爆发,为云计算行业带来了全新的转折点。各行各业重新燃起增长预期,将AI嵌入核心业务流程,推动组织架构重构和生产效率提升,这一过程中,计算、存储、数据库等云基础设施的需求被持续激活。
2024年云栖大会上,阿里巴巴集团 CEO 吴泳铭在演讲中称,生成式 AI 最大的想象力,绝不是在手机屏幕上做一两个新的超级 App,而是接管数字世界,改变物理世界。
这一判断在随后一年得到验证。进入2025年,AI应用正式迈入规模化生产阶段,从应用端的聊天机器人、Agent,到硬件端的眼镜、耳机、手机,再到产业端的制造、金融、农业等各行各业,AI的应用场景持续拓宽,云市场也随之进一步提速。
这就好比100多年前,电力首次进入工厂时,真正的变革不是用电动机简单替换蒸汽机,而是将电力嵌入到不同的业务单元,用不同类型的电机驱动生产线、传送带,生产力才迎来了爆发。
今天的AI云也是如此,单一的模型API调用已经无法满足企业不同层次、不同场景的需求。调研数据显示,70%的大模型API用户同时也使用了GPU算力服务。企业需要的不仅仅是模型,而是包括算力、存储、网络在内的一整套“AI基础设施”。
对于云厂商而言,要建立软硬一体的AI云全栈能力,推动企业用更低成本调用更强的AI 模型,解决不同层次、不同场景问题。
全栈和开源构筑的护城河当AI从实验室走向规模化生产,企业在选择AI服务商时,不再仅仅考量单一的模型性能,而会综合考量算力、成本以及安全性等指标。
这种需求的变化,让云厂商之间的竞争拉升到了更高的维度——全栈技术能力。在全栈赛道上,谷歌和阿里是最常被提及的玩家,也是全球唯二在芯片、云和大模型三大领域均具备顶级实力的公司。
过去一年,凭借Gemini 2.5/3.0系列模型和TPU v6/v7芯片的算力支撑,谷歌不仅在模型能力上抹平了与OpenAI的代差,更利用“芯片+云+模型”的垂直整合全栈技术闭环,大幅拉低了推理成本。有分析指出,谷歌提供同等推理服务时的底层成本,可能仅为对手的两成。
随着AI应用爆发,推理算力需求指数级增长,对于企业来说,成本就是生命。这也不难理解,谷歌在过去一年为何成为全球科技领域最当红的明星,股价也持续攀升。
和谷歌类似,阿里通过阿里云打造了面向全球的AI基础设施,从底层的自研芯片到超节点服务器、高性能网络、高性能存储、智算集群,再到人工智能平台和自研大模型家族,阿里云已具备全栈AI技术能力。
放眼全球,这两家真正能做到“懂芯片+懂服务器+懂网络+懂云+懂大模型”。
在这一战略中,阿里“通云哥”黄金三角(通义实验室+阿里云+平头哥)的协同效应正在显现。其中,平头哥的“真武”PPU芯片是这一闭环中关键的底层支撑。据披露,真武810E芯片拥有96GB HBM2e显存,片间互联带宽达到700GB/s,功耗仅为400W,性能与英伟达H20旗鼓相当。目前,该芯片已服务了国家电网、小鹏汽车、新浪微博等400多家客户,累计出货量已达数十万片,超过寒武纪。
在网络与存储层面,阿里云HPN 8.0高性能网络支持单集群10万卡GPU高效互联,CPFS文件存储单客户端吞吐提升至40GB/s,完美匹配AI训练对数据读取的极致需求。这种全栈优化带来了实实在在的效率提升:千问大模型训练端到端加速比提升3倍以上;在推理层,推理吞吐TPS增加了71%,时延降低了70.6%。这种“1+1+13”的效果,正是阿里云能持续高速增长的坚实基础。
在模型层,阿里旗下大模型仍在飞速迭代。2026年1月,千问旗舰推理模型Qwen3-Max-Thinking发布,创下数项权威评测全球新纪录;2月,图像生成基座大模型Qwen-Image-2.0发布,成为国产生图模型标杆。
Qwen-Image-2.0生成的《兰亭集序》配图
Qwen3-Max-Thinking与Qwen-Image-2.0的能力,体现出阿里云在基础模型和多模态模型上的综合实力。这些模型的发布不只是秀肌肉,而是证明阿里云具备持续迭代顶尖技术的能力,反哺云设施的先进性。
全栈布局带来的优势显而易见。未来,企业需要的不仅仅是一个API接口,而是结合了私有数据、算力调度和安全合规的一整套解决方案。有的企业需要API调用,有的需要自己训模型,有的需要RAG(检索增强生成)等等。这些复杂的需求,只有覆盖IaaS、PaaS、MaaS的全栈厂商才能完美承接。
作为全栈人工智能服务商,阿里正在推进三年3800亿人民币的AI基础设施建设计划,并持续追加投入,目前已在全球29个地理区域内运营着94个可用区。
除了全栈“硬技术”,阿里开源生态也构筑起了独特的“软护城河”。
目前,千问已成为全球第一开源模型,开源数量超400个,衍生模型数量突破20万个,下载量更是突破了10亿次。在科技行业,10亿下载量往往意味着该产品正在成为某种底层标准,正如移动互联网时代的Android,这为阿里云锁定了未来的流量入口。
Hugging Face数据显示,仅凭5款小尺寸模型,Qwen在2025年12月的单月下载量便已超越Mistral、OpenAI、英伟达等6家国际领先厂商的总和。
全球顶尖科技公司纷纷基于Qwen进行开发。甚至Meta的新模型“牛油果”(Avocado)项目,也选择蒸馏Qwen的开源模型。DeepSeek发布的R1系列小尺寸模型中,有4个是基于 Qwen进行蒸馏的。
这些开发者习惯了Qwen的架构,当他们需要商业化部署时,针对Qwen优化最好的阿里云自然成为首选平台。开源生态正是阿里云在激烈的市场份额争夺中,能够持续获得长尾动力的关键所在。
云市场进入强者恒强时代33%是三分天下,随着市场占比持续增长,36%已是一个行业分水岭的信号。
根据Omdia的长期追踪数据,2025年第一、二、三季度,阿里云在中国云市场的份额依次为33%、34%和36%。在基数庞大的云市场,连续三个季度保持份额攀升,这打破了此前市场上关于“云市场已饱和”的论调。
这一趋势也揭示了AI时代云市场的行业规律:强者恒强。
背后原因来自多个层面,一方面,过去,为了避免被单一厂商锁定或防止单点故障,企业往往选择“鸡蛋不放在同一个篮子里”,同时采购多家云厂商的服务。但在 AI 时代,大模型训练需要极高的集群稳定性与算力密度,这导致客户倾向于将核心业务集中在技术实力最强的一家云厂商上。
另一方面,相比于传统IT上云,AI业务对云厂商的粘性更强。在AI时代,AI Infra(AI基础设施)就是云计算本身。它不仅需要规模化、安全和稳定,更需要云上的跨服务流转能力,满足企业不同层次、不同场景的配套软件体系。企业一旦在某个云平台上完成了数据清洗、模型训练和业务流集成,迁移成本极高。
在这样的情况下,市场会迅速向具备更强算力资源、更优模型性能及更高安全性的头部厂商集中。数据显示,在已采用生成式AI的财富中国500强企业中,超过53%选择了阿里云,渗透率位居第一。也就是说,中国每两家拥抱AI的顶尖企业,就有一家跑在阿里云上。
作为全球具备全栈AI能力的另一极,谷歌云也走出了类似的增长曲线。最新数据显示,谷歌云业务成为Alphabet四季度业绩的最大亮点,当季业务收入同比暴增48%至177亿美元,其核心驱动力正是企业对AI基础设施及解决方案的激增需求。
增长不仅体现在当下的财务报表中,更体现在对未来的野心上。据媒体报道,阿里云已将目标定为“拿下2026年中国AI云市场增量的80%” 。
当市场份额突破36%这条安全线,意味着阿里云在规模化生产的AI新阶段,已经建立起独特的壁垒。在算力、模型和生态的共同作用下,中国云市场的头部优势正在被进一步固化。
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 203304862@qq.com
本文链接:https://jinnalai.com/jiaodian/808691.html
