漫谈太空算力

漫谈太空算力

马斯克要把AI训练搬到太空去——这个消息出来的时候,我第一反应是, "这玩意儿散热怎么解决"。

做过一点点硬件部署的人都知道,算力密度越高,散热越是噩梦。地面上我们已经在用液冷、浸没冷却各种骚操作,太空里怎么办?真空里没有空气对流,你连风扇都没法转,热量只能靠辐射散出去。这意味着什么?意味着你每增加一瓦算力,背后就要挂一大块辐射散热板。有人估算过,马斯克设想中的Starlink 2.0单颗卫星,展开之后太阳能板加散热板的面积能媲美国际空间站。

这不是一般复杂,这是工程上的另一个量级。


散热这道坎,马斯克的叙事里基本没提

我去翻了一些相关资料,马斯克对太空算力的核心论点是两个:太阳能无限,散热靠宇宙背景温度(接近绝对零度)。听起来天衣无缝。

但这里有个逻辑跳跃:温度低不等于散热快。

地面上我们能把热量散掉,是因为有对流介质——空气、水。太空是真空,没有这个介质,热传递只剩传导和辐射。辐射散热的效率,取决于散热面积和温差,你要在单位时间散掉几十上百千瓦的热量,需要的散热器面积是非常可观的。

所以马斯克说的"宇宙低温是天然散热条件"这个点,我觉得他要么没细想,要么是在刻意简化叙事。前者我不信,后者更可能。

这是一个卖故事的人在用真实的物理背书一个还没解决的工程问题。


中国在做的那条路,逻辑上清晰很多

中国现在搞的"天数天算",本质是边缘计算在太空的延伸。

逻辑很直接:遥感卫星每天拍海量图像,大部分在传回地面之前就因为带宽限制被丢掉了。如果能在卫星上或者相邻的计算卫星上先跑一遍推理,只把有用的结果传下来,带宽节省超过90%——三体星座测试广州琶洲遥感图像就是这个数。

这个需求是真实的,工程路径是清晰的,收益是立竿见影的。

我做算法的时候经常遇到这类问题:模型不是越大越好,有时候你需要的就是一个能在资源受限的端侧跑起来的小模型,把关键推理做完,把有用信息传出去。卫星上的计算问题,本质上就是这种"边缘推理"的极端版本。

中科天算2022年就把搭载国产芯片的太空计算机送上去了,稳定运行超过一千天。这不是PPT,是实际工程积累。


两件事为什么被混在一起讲,是因为都叫"太空算力"

我后来想了一下,中美这两条路之所以经常被放在一起对比,是因为表面上都是"在太空做计算",但驱动逻辑完全不同。

马斯克的逻辑是:地面AI算力的能耗和散热已经快撑不住了,太空是另辟蹊径一条。美国某些地方的电网扩容慢、电费涨、社区反对建数据中心,这种压力是真实存在的。

中国的逻辑是:我们有卫星,卫星产生了数据,这些数据处理起来不够高效,能不能在天上先算一遍。这是一个效率问题,不是能源逃生问题。

中国现在的AI算力需求,电力不是主要瓶颈。"东数西算"、特高压输电网、庞大的可再生能源装机——中国在这块有体系优势,没有被"逼上天"的紧迫性。

所以如果你问我中国要不要跟马斯克学,在太空建AI训练集群,我觉得这个问题本身就问歪了。


如何看待老马的道路

工程上的挑战归工程上的挑战,马斯克有个习惯是把"目前解决不了"和"永远解决不了"混在一起说,然后靠星舰降低发射成本把很多方程式重写。

如果星舰真的把发射成本打到足够低,百万卫星星座的经济账就会重算。如果散热问题有了材料或设计上的突破,算力密度就会上来。这些"如果"不是不可能,只是现在没有答案。

我现在也不确定的是:马斯克设想的那种"轨道AI算力池",如果真的实现了规模,会不会催生出一类我们现在还没想到的应用?就像移动互联网出来之前没人想到滴滴和抖音。

这种"平台先行、应用跟上"的逻辑,在美国是有过先例的。

高天伟说的那个比喻我觉得说得挺到位的:中国的路子是把每颗卫星训练成全能的,马斯克的思路是组一个专业分工的团队。后者的上限确实更高,但前者先能用起来。

问题是,如果马斯克那套真的跑通了,而我们又再次错过了——那这次错过的代价,比当年错过移动互联网可能还要大。

这个问题,我看不清。


漫谈太空算力
https://linxkon.github.io/漫谈太空算力.html
作者
linxkon
发布于
2026年3月15日
许可协议