算力云王座的权力游戏:云厂商自研芯片围攻英伟达
本文以云计算巨头自研芯片,梳理了英伟达在 AI 芯片市场的统治地位及其带来的成本压力,分析了 AWS、谷歌、微软为何大规模投入自研 ASIC 芯片,展示自研方案在成本上的明显优势。未来格局将是自研芯片与英伟达生态的长期共存,多方博弈将推动算力价格下行和 AI 应用加速普及。
过去几年,提到 AI 算力,几乎等同于提英伟达。 但从 2024 年开始,形势悄悄变了:亚马逊、谷歌、微软这些云计算巨头,不再满足于“买英伟达的铲子挖金”,而是开始自己开“铁厂”,大规模上自研 AI 芯片。
这不是一场简单的技术秀肌肉,而是一场关乎成本、议价权、生态控制的长期权力博弈。
本文就尝试回答几个核心问题:
- 英伟达现在到底强势到什么程度?
- 云厂商为什么非要自己做芯片?
- 自研 ASIC 芯片,真的比 GPU 划算吗?
- 这场博弈,最终会把 AI 算力市场推向哪里?
一、英伟达的统治地位:六成份额与 69% 毛利率
先看格局。
到 2025 年,英伟达仍然稳稳占据全球 AI 芯片市场 六成以上 的份额,可以说是货真价实的算力霸主。
更关键的是它的赚钱能力: 英伟达 2025 年的综合毛利率高达 69%。这意味着:
云厂商每花 100 元买英伟达的芯片,有 69 元变成了英伟达的利润,真正的硬件成本只有 31 元。
对于 AWS、Azure、GCP 这一类做云服务的公司来说,这个结构非常扎眼。 因为它们的生意,本质上就是:
自己买设备,切片打包以后租给别人用。
设备成本被英伟达抬得这么高,云厂商要么跟着涨价,把压力转嫁给客户;要么自己少赚钱,让股东不满意。长久下去,两头都不好看。
所以,自研芯片不是“想不想”的问题,而是“早晚”的问题。
二、云厂商为什么要自研芯片:一笔明确的经济账
从商业逻辑看,自研芯片的目标很直接:
- 把总拥有成本(TCO)压下来
- 把原本留给英伟达的利润,拿回一部分给自己
- 另一部分通过降价让利客户,提升云服务竞争力
云服务本质是规模生意。 在动辄上百万颗芯片的采购量级上,哪怕每颗芯片单小时成本便宜几十美分,长期累积都是天文数字。
这也是为什么几家云巨头一边还是英伟达的超级大客户,一边又拼命砸钱做自研——它们并不是要把英伟达“一刀切掉”,而是要增加自己的筹码和议价权。
三、AWS 百万芯片大军:从收购到完整家族
亚马逊其实很早就“埋雷”了。
早在 2015 年,AWS 就收购了以色列芯片公司 Annapurna Labs。当时外界并没有太多关注,现在回头看,这几乎是提前十年的布局。
到 2025 年,AWS 对外透露: 它们的数据中心里已经部署了 超过 100 万枚自研芯片。这个数字,对英伟达来说,绝对不是小数目。
这些自研芯片并不是一个型号,而是一个完整的家族:
- Graviton 系列 CPU:替代英特尔和 AMD,用于通用计算
- Inferentia:专门做 AI 推理
- Trainium:专门做大规模 AI 模型训练
简单理解就是:
原来全靠买英伟达“瑞士军刀”, 现在 AWS 自己造了一整套“螺丝刀、扳手、电钻”。
名气可能不如英伟达响亮,但胜在一个字:划算。
四、谷歌 TPU vs 英伟达 GB200:一笔明牌成本账
自研芯片到底便宜多少? 可以看一组公开测算数据。
2025 年 11 月,SemiAnalysis 做过一个对比:
- 谷歌自用 TPU v7,内部核算成本约为:1.28 美元 / 小时
- 英伟达 GB200 方案,对应成本约:2.28 美元 / 小时
简单一算:
谷歌自研 TPU 的成本,大约只有英伟达方案的 56%。
如果谷歌把 TPU 拿出来对外出租,算上自己的利润:
- TPU 对外云上价格约 1.6 美元 / 小时
- 仍然只有 GB200 方案的 51% 左右
对客户来说,同样一个 AI 训练或推理任务:
- 用英伟达方案,账单是 100
- 换成谷歌 TPU 或 AWS Trainium,账单可能直接砍半
对于每月在算力上烧掉几百万美元的 AI 创业公司,这不是小数,是生死线级别的差距。
五、GPU vs ASIC:瑞士军刀和电动货车的差异
要理解自研芯片为何能降成本,得先看两类芯片的基本思路。
通用 GPU:一把豪华瑞士军刀
英伟达的 GPU 一开始是为游戏场景设计的。 因为它在大规模并行计算上表现出色,才被 AI、科学计算等行业“顺手借用”。但随着需求越来越多,GPU 里集成的功能也越来越杂:
- 游戏渲染
- 挖矿
- 科学计算
- AI 训练和推理
- 视频编解码
- 各种图形和计算接口兼容
这就像一把豪华瑞士军刀,什么工具都有。 问题是:
你买的时候,不管用不用得到,都得为所有功能买单。
这在很多只做 AI 训练和推理的场景里,其实是一种浪费。
自研 ASIC:只干一件事的电动货车
像 AWS 的 Trainium、Inferentia,就属于 ASIC(专用芯片) 路线。
它们的设计逻辑是:
- 不追求“大而全”
- 砍掉所有和 AI 任务无关的功能模块
- 电路结构更简单,制造成本更低
- 能耗更小,单位算力成本更低
可以把它类比成一辆电动货车:
- 不越野
- 不讲豪华
- 也不适合赛车
- 但非常适合按吨计费地送货
对于大量只需要稳定跑训练任务、推理任务的企业来说,它们根本用不到 GPU 的全部功能,只想要一个“便宜好用、油耗低、拉得多”的工具,这正是 ASIC 的机会。
六、微妙的平衡:自研芯片和英伟达生态的共存
即便 AWS 已经上了百万片自研芯片,它在控制台里依然提供最新一代英伟达 GPU 供客户选择,这一点非常关键。
这说明:
现在谈“替代英伟达”,更多是一种 分流,而不是你死我活的全面对抗。
原因就在于 生态壁垒。
- 全球有几百万 AI 开发者在用 CUDA
- 主流开源 AI 框架和模型优先支持英伟达
- 很多企业的研发流程、工具链、监控系统,都深深绑在 GPU 生态上
对企业来说,把一整套已经跑顺的工程体系,从英伟达环境迁移到一套新芯片和工具链上,本身就是巨大的不确定性风险。
所以现实的格局更像这样:
- 研发和前沿探索阶段: 追求的是通用性、成熟工具和最高效率,英伟达的 GPU 仍然是首选
- 模型稳定并进入大规模商业化部署阶段: 在可接受的工程改造范围内,逐步迁移到 Trainium、Inferentia、TPU 这类自研芯片,以换取长期成本优势
云厂商推动自研,并不是为了把英伟达“赶出去”,而是为了在谈判桌上多一张牌。
七、对开发者和企业的直接影响
对开发者和企业用户来说,这场“算力王座的权力游戏”,带来的直接变化主要有三点。
1. 算力价格下行
当市场不再只有英伟达一家主要供应商,而是多家云厂商带着自研芯片加入竞争时:
- 供给变多
- 选择变多
- 算力单价自然往下走
这对初创公司尤其友好——进入门槛会比过去低一大截。
2. 选型变成“场景题”,而不是“单选题”
未来更合理的策略可能是:
- 研发阶段: 用英伟达 GPU,图的是生态成熟、调试方便、踩坑少
- 上线规模化部署后: 根据成本压力和业务结构,评估是否迁移到 TPU、Trainium、Inferentia 等专用芯片
对于很多企业而言,这是一个“分层架构”的过程,而不是一次性切换。
3. 英伟达也被迫加速创新和调整价格
当 AWS、谷歌、微软手里都有了可用的自研方案,并且规模已经上到百万级芯片时,英伟达也不可能无动于衷。
它只能:
- 加快自家产品迭代节奏
- 在价格和打包方案上更有弹性
- 在软件生态上继续加大投入
长期来看,这种多方博弈,反而会让整个行业朝着更高性能、更低成本、更丰富选择的方向发展。
晨涧云算力平台提供了丰富的英伟达显卡类型可供选择,包括A100、4090、3090等都是行业内极具竞争力的租用价格。
结语:算力王座,不是一把椅子,而是一张桌子
表面上看,这是一场“谁能坐上算力王座”的竞争; 但实际上,更接近一场围绕“规则制定权”的博弈。
- 英伟达掌控的是 通用 GPU 和 CUDA 生态
- 云厂商掌控的是 数据、场景、基础设施和客户关系
自研芯片,让后者在这张桌子上,终于有了可以拍一下的筹码。
对整个 AI 行业来说,算力正从过去那种“稀缺奢侈品”,慢慢变成更接近“水电一样的基础设施”。 当算力价格真正降下来,更多创业者和企业有能力长期使用大模型、训练自家模型时,AI 创新的密度和速度,才有可能真正爆发。
对个人开发者和技术团队来说,理解这场权力游戏背后的成本和生态逻辑,可能比盯着下一代显卡规格表,更有长期价值。