算力云王座的权力游戏:云厂商自研芯片围攻英伟达

本文以云计算巨头自研芯片,梳理了英伟达在 AI 芯片市场的统治地位及其带来的成本压力,分析了 AWS、谷歌、微软为何大规模投入自研 ASIC 芯片,展示自研方案在成本上的明显优势。未来格局将是自研芯片与英伟达生态的长期共存,多方博弈将推动算力价格下行和 AI 应用加速普及。

算力云王座的权力游戏

过去几年,提到 AI 算力,几乎等同于提英伟达。 但从 2024 年开始,形势悄悄变了:亚马逊、谷歌、微软这些云计算巨头,不再满足于“买英伟达的铲子挖金”,而是开始自己开“铁厂”,大规模上自研 AI 芯片。

这不是一场简单的技术秀肌肉,而是一场关乎成本、议价权、生态控制的长期权力博弈。

本文就尝试回答几个核心问题:

  • 英伟达现在到底强势到什么程度?
  • 云厂商为什么非要自己做芯片?
  • 自研 ASIC 芯片,真的比 GPU 划算吗?
  • 这场博弈,最终会把 AI 算力市场推向哪里?

一、英伟达的统治地位:六成份额与 69% 毛利率

先看格局。

到 2025 年,英伟达仍然稳稳占据全球 AI 芯片市场 六成以上 的份额,可以说是货真价实的算力霸主。

更关键的是它的赚钱能力: 英伟达 2025 年的综合毛利率高达 69%。这意味着:

云厂商每花 100 元买英伟达的芯片,有 69 元变成了英伟达的利润,真正的硬件成本只有 31 元。

对于 AWS、Azure、GCP 这一类做云服务的公司来说,这个结构非常扎眼。 因为它们的生意,本质上就是:

自己买设备,切片打包以后租给别人用。

设备成本被英伟达抬得这么高,云厂商要么跟着涨价,把压力转嫁给客户;要么自己少赚钱,让股东不满意。长久下去,两头都不好看。

所以,自研芯片不是“想不想”的问题,而是“早晚”的问题。


二、云厂商为什么要自研芯片:一笔明确的经济账

从商业逻辑看,自研芯片的目标很直接:

  • 把总拥有成本(TCO)压下来
  • 把原本留给英伟达的利润,拿回一部分给自己
  • 另一部分通过降价让利客户,提升云服务竞争力

云服务本质是规模生意。 在动辄上百万颗芯片的采购量级上,哪怕每颗芯片单小时成本便宜几十美分,长期累积都是天文数字。

这也是为什么几家云巨头一边还是英伟达的超级大客户,一边又拼命砸钱做自研——它们并不是要把英伟达“一刀切掉”,而是要增加自己的筹码和议价权


三、AWS 百万芯片大军:从收购到完整家族

亚马逊其实很早就“埋雷”了。

早在 2015 年,AWS 就收购了以色列芯片公司 Annapurna Labs。当时外界并没有太多关注,现在回头看,这几乎是提前十年的布局。

到 2025 年,AWS 对外透露: 它们的数据中心里已经部署了 超过 100 万枚自研芯片。这个数字,对英伟达来说,绝对不是小数目。

这些自研芯片并不是一个型号,而是一个完整的家族:

  • Graviton 系列 CPU:替代英特尔和 AMD,用于通用计算
  • Inferentia:专门做 AI 推理
  • Trainium:专门做大规模 AI 模型训练

简单理解就是:

原来全靠买英伟达“瑞士军刀”, 现在 AWS 自己造了一整套“螺丝刀、扳手、电钻”。

名气可能不如英伟达响亮,但胜在一个字:划算


四、谷歌 TPU vs 英伟达 GB200:一笔明牌成本账

自研芯片到底便宜多少? 可以看一组公开测算数据。

2025 年 11 月,SemiAnalysis 做过一个对比:

  • 谷歌自用 TPU v7,内部核算成本约为:1.28 美元 / 小时
  • 英伟达 GB200 方案,对应成本约:2.28 美元 / 小时

简单一算:

谷歌自研 TPU 的成本,大约只有英伟达方案的 56%

如果谷歌把 TPU 拿出来对外出租,算上自己的利润:

  • TPU 对外云上价格约 1.6 美元 / 小时
  • 仍然只有 GB200 方案的 51% 左右

对客户来说,同样一个 AI 训练或推理任务:

  • 用英伟达方案,账单是 100
  • 换成谷歌 TPU 或 AWS Trainium,账单可能直接砍半

对于每月在算力上烧掉几百万美元的 AI 创业公司,这不是小数,是生死线级别的差距


五、GPU vs ASIC:瑞士军刀和电动货车的差异

要理解自研芯片为何能降成本,得先看两类芯片的基本思路。

通用 GPU:一把豪华瑞士军刀

英伟达的 GPU 一开始是为游戏场景设计的。 因为它在大规模并行计算上表现出色,才被 AI、科学计算等行业“顺手借用”。但随着需求越来越多,GPU 里集成的功能也越来越杂:

  • 游戏渲染
  • 挖矿
  • 科学计算
  • AI 训练和推理
  • 视频编解码
  • 各种图形和计算接口兼容

这就像一把豪华瑞士军刀,什么工具都有。 问题是:

你买的时候,不管用不用得到,都得为所有功能买单。

这在很多只做 AI 训练和推理的场景里,其实是一种浪费。


自研 ASIC:只干一件事的电动货车

像 AWS 的 Trainium、Inferentia,就属于 ASIC(专用芯片) 路线。

它们的设计逻辑是:

  • 不追求“大而全”
  • 砍掉所有和 AI 任务无关的功能模块
  • 电路结构更简单,制造成本更低
  • 能耗更小,单位算力成本更低

可以把它类比成一辆电动货车:

  • 不越野
  • 不讲豪华
  • 也不适合赛车
  • 但非常适合按吨计费地送货

对于大量只需要稳定跑训练任务、推理任务的企业来说,它们根本用不到 GPU 的全部功能,只想要一个“便宜好用、油耗低、拉得多”的工具,这正是 ASIC 的机会。


六、微妙的平衡:自研芯片和英伟达生态的共存

即便 AWS 已经上了百万片自研芯片,它在控制台里依然提供最新一代英伟达 GPU 供客户选择,这一点非常关键。

这说明:

现在谈“替代英伟达”,更多是一种 分流,而不是你死我活的全面对抗。

原因就在于 生态壁垒

  • 全球有几百万 AI 开发者在用 CUDA
  • 主流开源 AI 框架和模型优先支持英伟达
  • 很多企业的研发流程、工具链、监控系统,都深深绑在 GPU 生态上

对企业来说,把一整套已经跑顺的工程体系,从英伟达环境迁移到一套新芯片和工具链上,本身就是巨大的不确定性风险。

所以现实的格局更像这样:

  • 研发和前沿探索阶段: 追求的是通用性、成熟工具和最高效率,英伟达的 GPU 仍然是首选
  • 模型稳定并进入大规模商业化部署阶段: 在可接受的工程改造范围内,逐步迁移到 Trainium、Inferentia、TPU 这类自研芯片,以换取长期成本优势

云厂商推动自研,并不是为了把英伟达“赶出去”,而是为了在谈判桌上多一张牌。


七、对开发者和企业的直接影响

对开发者和企业用户来说,这场“算力王座的权力游戏”,带来的直接变化主要有三点。

1. 算力价格下行

当市场不再只有英伟达一家主要供应商,而是多家云厂商带着自研芯片加入竞争时:

  • 供给变多
  • 选择变多
  • 算力单价自然往下走

这对初创公司尤其友好——进入门槛会比过去低一大截。


2. 选型变成“场景题”,而不是“单选题”

未来更合理的策略可能是:

  • 研发阶段: 用英伟达 GPU,图的是生态成熟、调试方便、踩坑少
  • 上线规模化部署后: 根据成本压力和业务结构,评估是否迁移到 TPU、Trainium、Inferentia 等专用芯片

对于很多企业而言,这是一个“分层架构”的过程,而不是一次性切换。


3. 英伟达也被迫加速创新和调整价格

当 AWS、谷歌、微软手里都有了可用的自研方案,并且规模已经上到百万级芯片时,英伟达也不可能无动于衷。

它只能:

  • 加快自家产品迭代节奏
  • 在价格和打包方案上更有弹性
  • 在软件生态上继续加大投入

长期来看,这种多方博弈,反而会让整个行业朝着更高性能、更低成本、更丰富选择的方向发展。


晨涧云算力平台提供了丰富的英伟达显卡类型可供选择,包括A100、4090、3090等都是行业内极具竞争力的租用价格。


结语:算力王座,不是一把椅子,而是一张桌子

表面上看,这是一场“谁能坐上算力王座”的竞争; 但实际上,更接近一场围绕“规则制定权”的博弈。

  • 英伟达掌控的是 通用 GPU 和 CUDA 生态
  • 云厂商掌控的是 数据、场景、基础设施和客户关系

自研芯片,让后者在这张桌子上,终于有了可以拍一下的筹码。

对整个 AI 行业来说,算力正从过去那种“稀缺奢侈品”,慢慢变成更接近“水电一样的基础设施”。 当算力价格真正降下来,更多创业者和企业有能力长期使用大模型、训练自家模型时,AI 创新的密度和速度,才有可能真正爆发。

对个人开发者和技术团队来说,理解这场权力游戏背后的成本和生态逻辑,可能比盯着下一代显卡规格表,更有长期价值。

阅读更多