算力要上天了?太空数据中心究竟是不是一场豪赌
谷歌、亚马逊、SpaceX、英伟达正竞相将AI数据中心送入太空。太空提供近乎免费的太阳能、极端散热条件与超低延迟通信,但发射成本、散热工程、辐射防护与轨道拥挤等挑战仍横亘在前。本文全面拆解太空算力的三大优势、真实成本、产业路径与现实瓶颈。
为什么数据中心要上天
几年前,如果有人说要把数据中心发射进太空,大多数人的反应大概是——这个PPT做得挺好看的。
但情况变了。在今年的达沃斯论坛上,马斯克直接宣称,未来两到三年内,太空将成为部署AI数据中心成本最低的地方。SpaceX今年的核心目标之一,就是验证星舰的完全可复用性,并在此后几年发射由太阳能供电的AI卫星,最终扩展至数百太瓦的规模。紧接着,SpaceX宣布收购XAI,推动总估值达到1.25万亿美元,两者合并后推进太空数据中心的部署被列为最重要的事项之一。同时,SpaceX已向美国联邦通信委员会提交了高达100万颗卫星的发射计划。
其他公司也没闲着。亚马逊创始人贝索斯旗下的蓝色起源早在一年多前就秘密组建了开发团队,专门打造轨道AI数据中心用的卫星。谷歌发布了名为"Suncatcher(曝光者)"的太空数据中心计划,预计2027年将第一批算力机架送入轨道。英伟达则通过投资公司StarCloud,将一颗搭载了H100 GPU的卫星送入轨道,并首次在太空完成了NanoGPT模型的训练——这标志着太空算力已经进入了实验验证阶段。
所以,这件事现在已经不是"要不要做"的问题,而是"谁能先做成"。
地面上的日子有多难过
要理解为什么科技公司愿意承受极高的发射成本也要把服务器送上天,得先看看地面数据中心现在到底有多憋屈。
如果你去问硅谷大佬AI进化最大的瓶颈是什么,他们大概率不会说是算法,也不是人才,更不是芯片——而是两个最基础的物理问题:电力和散热。
一个超大规模AI数据中心的持续用电规模,已经从过去的几十兆瓦跃升到了数百兆瓦,逼近一吉瓦。一吉瓦是什么概念?以这个功率24小时全年无休运行,一年产生的电量大约相当于一座中等规模城市整年的用电量。
散热的问题同样棘手。以H100这类高端GPU为例,单卡功耗已接近700瓦,一个训练集群动辄成千上万张卡,散热正在成为比算力本身更昂贵的系统工程。数据显示,一个大型数据中心每消耗1000瓦时电力,往往需要1到2升淡水用于冷却——百兆瓦级AI数据中心每天可能消耗上百万升水。
为了获取电力,科技巨头们已经绞尽脑汁:收购改造发电厂、自建电网、抢购燃气轮机、研究核能。地面已经是一场AI能源战争。
这个背景下,太空算力的逻辑就很清晰了。
太空给了什么
太空提供了三件地面永远给不了的东西。
第一是能源。 在近地轨道上,没有大气层折射,没有云层遮挡,也没有昼夜交替,只要太阳能电池板足够大,理论上可以获得24小时不断电的清洁能源。数据显示,地球轨道上的太阳能利用效率是地面的8到10倍。对AI来说,最关键的不是便宜的电,而是长期稳定、不中断的功率输入——而太空恰好能做到这一点。
第二是散热。 AI运行会产生巨热,而太空背景温度仅为3开尔文(约零下270摄氏度)。在真空环境中,热量不需要被搬走,而是可以通过辐射方式直接向深空释放。前微软能源战略经理Ethan Hsu指出,这意味着PUE(能源使用效率)可以无限逼近于1——也就是说,几乎所有电力都用于计算,而不是制冷。传统地面数据中心有接近40%的电力消耗在冷却上,这在太空中可以近乎消除。
第三是延迟。 光在真空中的传播速度比在光纤里快30%。通过激光链路,太空数据中心可以绕过复杂的陆地网络和海底电缆,实现真正意义上的全球算力快速覆盖。当算力节点出现在轨道上,它们在特定网络拓扑中,甚至可能成为比地面节点更接近用户的中继节点。
太空同时满足了持续能源、极端散热、接近物理极限的通信条件——而这三件事恰好也是AI算力当下最稀缺的三样东西。
成本到底是不是真的更低
听到这里很多人会觉得,太空算力成本更低,那地面数据中心还建什么?但这个问题需要认真拆解。
美国太空算力代表公司StarCloud的白皮书中有一张表格,声称以十年为周期计算,同样40兆瓦的算力中心,在太空运营比在地面节省近一半成本。这个数字看起来非常诱人,也被不少研究机构和券商广泛引用。但这份数据本身就出自StarCloud——一家太空算力公司,而且其中包含了大量假设性参数。
能源成本方面,表格里的美国工业电价是4美分/度,但实际上美国工业电价已经到了8美分/度,而AI数据中心由于需求呈指数爆发增长,电网扩容跟不上,大多数AI数据中心只能自发自用。自发自用的小电网本质上是不经济的,据估算,马斯克XAI数据中心的自发自用电价达到约10美分/度。也就是说,表格里的能源成本至少要乘以2,十年总能源成本可达2.8亿美元。
相比之下,中国的情况稍好一些。通过特高压输电将算力中心向西部迁移,西部节点的度电成本约为0.45到0.6美分/度,约为美国AI自发自用成本的50%甚至更低。
太空端的能源成本也并非零。太空中需要太阳能电池板,且目前卫星使用的是"砷化镓+光伏"方案,具有良好的抗辐射能力,但价格极高,约每瓦60到70美元。仅满足40兆瓦的需求,就需要约24亿美元的电池板投入。太空能源想变得真正廉价,必须等待轻量化、低成本太阳能技术的突破。
发射成本方面,StarCloud的表格假设未来发射成本能降到每公斤30美元。而现实是,猎鹰重型火箭在可回收摊销后,每公斤发射成本约为1500美元——是表格假设的50倍。按照这个现实数字,40兆瓦算力中心的发射成本不是表格里的500万美元,而是约2.5亿美元。
散热方面更是出乎很多人的意料。很多人以为太空零下200多度不需要散热,但事实恰恰相反。在太空中没有空气作为导热介质,所有热量会积聚在芯片附近,而两米之外就是接近绝对零度的环境。散热依然是核心技术难题。根据测算,针对1吉瓦的太空算力集群,所需散热面积约为240万平方米;40兆瓦算力中心需要约9.6万平方米的散热片,相当于13到14个足球场。按每平方米1万美元计算,散热片成本约9.6亿美元,且其重量还会导致发射成本进一步上升一倍以上。
辐射屏蔽同样是大问题。目前并不存在针对高性能计算芯片的成熟辐射屏蔽材料,没有屏蔽意味着芯片在太空中的工作寿命会大大缩短,整个成本计算的周期就不再是十年,而可能是一年。
综合来看,在当前技术条件下,太空算力的实际成本依然是地面数据中心的10倍以上,且面临多项技术挑战。StarCloud描述的是一个建立在多个假设技术突破基础上的未来愿景,而不是今天的现实。
实现太空算力需要点亮哪些科技树
把太空算力的成本难题归纳一下,需要突破的关键技术路径有以下几条:
一是廉价且可重复使用的火箭,将每公斤发射成本大幅压低;二是新型太空光伏技术,开发出比砷化镓更便宜的太空用太阳能方案;三是轻量化散热片,大幅降低散热系统的重量与成本;四是针对高性能计算芯片的辐射屏蔽材料,保障芯片长期稳定工作;五是卫星间大带宽通信技术,支撑算力卫星之间的高速数据传输。
这五项技术的每一次突破,都能带来太空算力成本的一次大幅下降。马斯克和StarCloud等公司,正是在这些技术节点上寻找突破口。
怎么建:两条主流路径
目前太空数据中心的建设探索,主要收敛为两条路径。
第一条是在轨边缘计算。 核心逻辑是,不把卫星采集的所有数据传回地面,而是把AI加速器直接送上卫星,让数据在太空中就完成分析、筛选和压缩。StarCloud与英伟达的合作是这条路线目前最具代表性的案例——StarCloud One卫星搭载了H100级别的GPU,整套算力系统仅60公斤,相当于一台小型冰箱。这颗卫星已在轨完成了NanoGPT模型训练,调用谷歌开源模型Gemma,并能实时读取传感器数据、识别野火热信号等任务。
在轨边缘计算的优势在于技术难度相对可控——它是对既有技术的延伸,而不是系统级重构。一颗卫星对应一类特定任务,算法、算力规模、功耗、散热都可以在发射前充分设计验证。即便某颗卫星出问题,影响也是局部可隔离的。这条路线目前已经被跑通,正在帮助业界验证GPU在太空中能否长期稳定运行——这是未来建设规模化轨道云数据中心的重要前提。
第二条是轨道云数据中心。 目标更为大胆:在太空中构建真正意义上的云计算基础设施,让太空算力像地面云一样被调用、被分配、被扩展。谷歌的Suncatcher计划是目前最成体系的设想之一,核心思路是在晨昏轨道上部署带太阳能阵列的卫星,每颗卫星搭载Google TPU,卫星之间用自由空间光通信互联,并用81颗卫星组成半径仅一公里的密集阵列——最近的两颗卫星距离仅100到200米。谷歌已专门为太空数据中心研制了特别版TPU,辐射测试显示在等效约5年轨道寿命的辐射剂量下,TPU未出现致命性失效。两颗原型卫星计划于2027年初发射。
SpaceX的路线则刚好相反:从现有Starlink星座出发,让星座进化成算力云。截至目前,Starlink约有9300颗活跃卫星,占所有在轨可运行卫星的约65%,卫星之间已通过激光链路高速互联。SpaceX的设想是,让部分Starlink卫星逐步从纯通信节点演进为同时具备通信与算力能力的节点,依托现有星座不断叠加计算属性,逐渐形成覆盖全球的动态调度分布式算力网络。这种模式演进成本更低,风险更可控。
还有一道坎:卫星编队的控制难题
以谷歌的81星密集阵列为例,卫星间距离只有100到200米,在650公里高度上,每颗卫星的轨道速度达到7.54千米/秒。一旦编队失控,哪怕只是轻微擦碰,瞬间产生的动能就可以把整颗卫星摧毁,碎片引发连锁撞击,最终让整层轨道变成死亡禁区。
过去60年的航天实例中,卫星之间通常保持几百甚至上千公里的安全距离。而谷歌的方案要把距离压缩到200米以内。为此,谷歌设计了一套精密的编队飞行方案:通过给不同卫星赋予极其微小的轨道离心率差异,让它们在绕地飞行的同时,相对于中心锚点卫星(S0)画出封闭的椭圆轨迹——从侧面看,整个阵列就像一个旋转的车轮。理论上,这种构型通过精密的数学设计,可以自然抵消地球非球形引起的轨道摄动,不需要持续消耗燃料来维持阵型。
理论上可行,工程上是地狱级别的难度。只要初始入轨速度有毫米级误差,或者控制算法稍微延迟,整个阵型就可能瞬间分崩离析。
太空垄断:最不敢明说的优势
在所有讨论中,有一个优势StarCloud等公司不太敢直说,但实际上是资本最看重的:全球性与垄断性。
目前,国家之间可以通过控制海底电缆,来限制对方的AI公司和数据流动。但如果算力部署在太空,且成本优势明显,全球AI公司都会直接选择使用天上的算力训练模型,任何地区的用户都能访问,也几乎无法被物理屏蔽。
这意味着,地面算力天然是分散化、本地化的,而太空算力天然趋向垄断——谁发射的算力越多,谁能把成本降得越低,谁最终就可能主导全球AI基础设施。全球最终可能只有一到两家太空算力公司胜出。资本盯着的,正是这种潜在的、恐怖的垄断能力。
从这个角度看,低轨卫星轨道本身就有容量上限,就像一线城市核心区的房产——你占了这条轨道,我就用不了。所以不管太空算力的终极成本能否如期实现,对于中美而言,这都是不得不去尝试和追赶的战略节点。
美国在发射技术和算力芯片方面有先发优势;中国在光伏技术、液冷技术以及工程制造领域积累更深。双方在起步阶段各有先手,结局未定。
现实判断:替代还是补充?
把所有信息摆在一起,有一个判断会变得清晰:太空数据中心从一开始就不是一条短期见效的路线,也不太可能成为地面数据中心的替代者——至少在可预见的未来不会。
地面数据中心的优势依然无可替代:成本更低,部署更快,维护更灵活,生态更成熟。对绝大多数通用计算任务,把算力放在地面依然是最经济、最高效的选择。
太空数据中心更现实的定位,是地面算力的补充。当算力需求继续膨胀,地面系统越来越受到能源供给、散热能力、用水压力、土地资源的约束时,太空提供的是一条不再完全受地面物理条件限制的算力增长路径。
最可能出现的形态,是地面与太空并存的混合算力体系:地面数据中心承担主体算力、核心存储和高频交互;太空数据中心则在AI训练这类能耗巨大、对延迟要求相对宽松的场景中发挥作用,以及处理太空中采集的数据,作为一种边缘数据中心的形式存在。
现在建一吉瓦级太空数据中心,保守估算成本可能上探千亿美元级别。但如果发射成本持续下降,加上能源成本几乎为零,未来太空数据中心在整个生命周期的总成本上,确实有可能接近甚至低于地面系统。这是一笔用前期高投入换取几十年低运营成本的长期账,而不是当下的生意。
晨涧云AI算力平台 提供高效的算力租赁服务,多种显卡资源选择,注册就可以试用。
十几年前,当马斯克说要造民用火箭、移民火星时,很多人觉得他疯了。后来SpaceX彻底改写了航天史,把发射成本降低了一个数量级。今天,太空数据中心依然科幻,工程上依然是地狱级难度。但这一次,谷歌、亚马逊、英伟达一呼百应,没有人敢再轻易说"不可能"。
我们大概只是又一次站在了相似的岔路口而已。
数据参考:NASA轨道成本报告、谷歌Suncatcher计划论文(arXiv)、StarCloud白皮书、SpaceX公开发射成本数据、浙江大学与南洋理工大学Nature联合研究。