AI算力卷上太空!谷歌英伟达竞相押注“太空数据中心”
来源: InfoQ - AI&大模型
作者 | 木子 高允毅
大伙儿应该知道,在这个AI时代,算力是越来越紧张。
对于一些科技巨头,这资源紧张程度可能超出了预期,比如微软居然因为数据中心缺电,导致手上成堆的英伟达GPU插不上电,只能闲置。
面对“算力饥荒”,谷歌另辟蹊径,提出了一个脑洞大开的“AI算力登月计划”,名为“阳光捕手计划”(Project Suncatcher)。
他们打算把TPU发射上太空,并希望最终构建一个基于太空、高度可扩展的AI计算集群;换句话说,本质就是直接在太空建立数据中心——思路还挺像“星链”的,不过是算力版。

有趣的是,“星链”老板马斯克还真给谷歌CEO劈柴哥留言了:
“想法很好。”

劈柴哥回复:
“这完全得益于SpaceX在发射技术方面的巨大进步!”

在太空中部署算力有啥好处?
谷歌智能范式高级总监特拉维斯·比尔斯(Travis Beals)在一篇博文中表示,从长期看,在太空部署算力可能是最具可扩展性的解决方案,同时还可以减少对地球土地、水资源等的消耗。
要知道,地球的算力,是真快“烧不动”了。
国际能源署预测,到2030年,全球数据中心的耗电量将与整个日本相当。数据中心还需要大量的水用于冷却——世界经济论坛的数据显示,而一个1兆瓦的数据中心每天要用掉相当于上千人的生活用水。
比尔斯直言:“未来,太空或许是扩展人工智能计算规模的最佳场所。”

谷歌还发了一篇预印本论文,名为《 面向未来高度可扩展的天基人工智能基础设施系统设计 》,解释了想在太空建设算力集群的原因。

还有很重要的一点,就是提高能量利用率。
论文中给出了一些数据:太阳的输出功率为 3.86 × 10²⁶ 瓦,比全人类的电力产出总和高出百万亿倍。
另外,在合适的轨道上,太阳能电池板基本可以持续接受日照,年均能量获取量可达到地面中纬度太阳能板的8倍,而且几乎可以持续发电,从而减少对笨重星载电池的需求。
而且,在太空的真空环境中,冷却几乎不需要用水,也不会排放二氧化碳。
不过谷歌也指出,其实“太空太阳能”并不是一个新概念,但传统方案的主要问题是:太空能源回传地球存在效率、成本、安全难题。
于是他们打算让计算上太空,而不是让能量回地面,从而大幅提高能量利用率。这些太空数据中心将由大量太阳能驱动的卫星组成,通过太空中的自由空间光链路相互连接形成算力网络。
为了实现高带宽、低延迟的星间通信,这些卫星需要在近距离编队飞行。谷歌给出了一个理论模型:以一个由81颗卫星组成、半径1公里的集群为例,展示了编队飞行的基本策略,并介绍了一种利用高精度机器学习模型来控制超大规模卫星星座的方法。

据谷歌CEO劈柴哥介绍,他们预计在2027年把该项目里最早的两颗卫星发射上去。
说到发射,发射成本是至关重要的组成部分,如果把算力送上太空太贵的话,那也很难商业化落地——而谷歌研究发现,这是能控制下来的。
他们通过学习曲线模型的分析,预计到2030年代中期,近地轨道(LEO)发射成本可能会降至200美元/公斤以下。

英伟达也把H100送上天
无独有偶,前两天,英伟达刚把他们的H100送上天。
据IEEE报道,11月2日,英伟达首次把自家最强 AI 芯片——H100 GPU送上太空,搭载在初创公司Starcloud 的 Starcloud-1 卫星上,由 SpaceX 的 猎鹰 9 号 火箭发射升空,进入约 350 公里高的超低地球轨道,展开为期三年的测试任务。
这是人类第一次把数据中心级GPU发射入轨——标志着“太空算力”正式进入AI时代。
H100是英伟达的“王牌芯片”,其性能比上一代A100快两到三倍,集群模式下甚至能提速九倍,被全球 AI 巨头们,如OpenAI、谷歌、Meta广泛使用。
如今,这块被称为“AI 世界发动机”的超级芯片将在太空测试包括地球观测影像分析、运行谷歌大型语言模型等多种任务。

据了解,这次实验的目标,是看看数据中心级的GPU能否在太空中稳定工作。Starcloud计划让卫星在轨道上实时处理来自Capella雷达卫星群的地球观测数据,再把分析结果传回地球——简单来说,就是让“太空电脑”自己干AI的活。
事实上,英伟达的芯片此前也曾上过太空,只不过规模远不及这次。
过去的 Jetson 系列主要是实验级的小型计算模块,而H100则是首次把真正的数据中心算力带上轨道。Starcloud 希望未来能把更多高能耗的计算任务“搬出地球”,借助逐步降低的发射成本(尤其是 SpaceX 星舰),让“太空云计算”成为现实。
据Starcloud预计,一整个在轨数据中心的生命周期碳排放量可比地面减少十倍以上。
更重要的是,太空中的卫星可以直接“边计算边观测”。以合成孔径雷达(SAR)卫星为例,以往要把海量的原始数据传回地球再分析,如今有了H100,这些卫星可以在轨实时运行AI模型,只把结果回传,比如“一艘船正向北移动”,仅需几千字节的数据,而不是几百GB的原始图像。
这种“在轨智能”极大节省带宽和能耗,也让实时监测变得更高效。
随 SpaceX的星舰火箭不断降低发射成本,未来每公斤的发射费用有望从现在的500美元降到10至150美元。如果能实现这一目标,部署数百台GPU的在轨数据中心将不再是天方夜谭。
Starcloud 已计划 2027 年发射一颗100千瓦级卫星,2030年代初打造一个40兆瓦的太空数据中心,其算力成本预计可与地面持平。
英伟达把H100送上天,并不是为了在轨跑ChatGPT,而是在验证一种新的可能——让数据中心脱离地球束缚。
这次事件引发网友热议——有人赞叹“AI真要上天了”,也有人调侃“太空数据中心会遮住星星”,甚至有人直言这像科幻剧情节。

“这也太酷了。”

“太棒了。现在我们看不到星星了,只能看到天空中那些蠢兮兮的数据中心灯光。接下来是什么?太空里的巨型广告吗?”

“这看起来像是未来某科幻剧的情节……”
网友们也形成三方立场:
赞叹派:「AI 要上天了」、「H100 真正变成‘星际GPU」 →认为这是计算史的里程碑,把数据中心搬到太空既浪漫又有潜力。怀疑派:「发射成本太高,卫星寿命太短」、「带宽瓶颈依旧存在」 → 质疑实际应用价值和商业可行性。工程派:「这其实是一次技术验证,真正的太空数据中心至少要十年」 → 认为目前只是试验性质,重在验证热控、辐射防护、能源效率等关键环节。
无论哪一方正确,人类算力正在“出圈”到宇宙;AI 的边界,也许真的要被重新定义了。
最后,用英伟达官方对此写下的一个浪漫话语做结:

“Space isn’t just for stars anymore.”——太空不再只是星星的专属了。
论文查看:
https://services.google.com/fh/files/misc/suncatcher_paper.pdf
参考链接:
https://x.com/sundarpichai/status/1985754323813605423
https://x.com/elonmusk/status/1985775942560858504
https://spectrum.ieee.org/nvidia-h100-space?utm_source=homepage&utm_medium=hero&utm_campaign=hero-2025-11-03&utm_content=hero5