Wenn du den aktuellen Wettlauf um Künstliche Intelligenz verfolgst, ist dir das Muster vermutlich längst aufgefallen: Jeder Sprung bei Modellen und Fähigkeiten bringt eine enorme Rechnung bei Strom mit sich … und ebenso beim Wasserverbrauch. Genau deshalb treiben mehrere US-Technologiekonzerne eine Idee voran, die nach Science-Fiction klingt, aber langsam Realität wird (oder besser gesagt: in den Orbit kommt): Rechenzentren im Weltraum zu bauen. Der Ansatz ist ebenso direkt wie ambitioniert: Server auf Satelliten installieren, sie mit nahezu konstant verfügbarer Solarenergie versorgen und das Vakuum des Alls nutzen, um Wärme abzuführen, ohne auf wasserbasierte Kühlsysteme angewiesen zu sein.
Im Kern ist die Absicht eindeutig: Wenn KI-Infrastruktur auf der Erde Stromnetze und lokale Ressourcen zunehmend belastet, warum dann nicht einen Teil der Rechenleistung in die Umlaufbahn verlagern – dorthin, wo Photovoltaik deutlich effizienter sein kann und Kühlung nicht literweise Wasser erfordert? Die Antwort ist noch kein endgültiges „Ja“, aber die Hinweise verdichten sich: Google hat bereits einen Zeitplan, NVIDIA hat Hardware in den Orbit gebracht, und SpaceX, OpenAI sowie weitere Schwergewichte der Branche haben Interesse signalisiert.
Was ist ein Weltraum-Rechenzentrum – und warum ist es gerade jetzt interessant?
Wenn von „Rechenzentren im All“ die Rede ist, geht es nicht um einen einzigen gigantischen Satelliten als schwebenden Server, sondern um einen modularen Ansatz: Gruppen von Satelliten mit Rechen- und Kommunikationskapazität werden so ausgebracht, dass sie als Verarbeitungs- und Speicherinfrastruktur in der Erdumlaufbahn arbeiten. Die Idee dahinter: das ungebremste Wachstum von Rechenzentren am Boden – insbesondere für KI-Workloads – zumindest teilweise zu ersetzen.
Das zentrale technische Argument dreht sich um Energie und Kühlung. Im Orbit lässt sich Strom über Photovoltaikzellen nahezu kontinuierlich erzeugen, und Google hat darauf hingewiesen, dass die Effizienz der Solarstromerzeugung bis zu achtmal höher sein kann als auf der Erde. Außerdem kann Abwärme in den Weltraum abgegeben werden, was die Abhängigkeit von großen Wassermengen zur Kühlung reduziert – ein sensibler Punkt in vielen Regionen, in denen der Ausbau von Rechenzentren die Wasserressourcen bereits stark unter Druck setzt.
Der Treiber für diese Suche nach Alternativen ist der erwartete Verbrauch. BloombergNEF schätzt, dass der Strombedarf von Rechenzentren in den USA bis 2035 106 GWh erreichen wird – eine Größenordnung, die mit mehr als 100 großen Kernkraftwerken verglichen wird. Die Zahl wurde zudem um 36% nach oben korrigiert, verglichen mit einer Prognose von gerade einmal sieben Monaten zuvor, und liegt bei etwa dem 2,6-Fachen der für 2025 erwarteten Nachfrage. Vor diesem Hintergrund überrascht es nicht, dass vor Ort Widerstand gegen neue Anlagen wächst und Sorgen über Auswirkungen auf Strompreise und Energieplanung zunehmen.
Und damit stellt sich die unvermeidliche rhetorische Frage für alle Leserinnen und Leser mit Geek-Ader: Wenn KI „mit voller Wucht“ wachsen soll – wollen wir wirklich weiterhin versuchen, alles an denselben irdischen Stecker zu hängen?

Google, NVIDIA und Starcloud: die ersten realen Schritte
Auf diesem Spielfeld hat Google (Alphabet) seinem Vorstoß bereits einen Namen und ein Datum gegeben: Project Suncatcher. Nach den Ankündigungen plant das Unternehmen, Anfang 2027 zwei experimentelle Satelliten zu starten, ausgestattet mit seinen leistungsfähigen KI-Halbleitern, den TPUs. Der Ansatz soll über viele kleinere Satelliten skalieren, die Solarpanels und Rechenkapazität kombinieren und gemeinsam als verteiltes Rechenzentrum im Orbit arbeiten.
Noch glaubwürdiger wird das Konzept dadurch, dass es nicht bei Plänen bleibt: Das von NVIDIA unterstützte Startup Starcloud war hier schneller. Das Unternehmen brachte im Oktober den KI-Halbleiter NVIDIA H100 und seinen ersten Satelliten ins All; laut NVIDIA wiegt dieser 60 Kilogramm und ist ungefähr so groß wie ein kleiner Kühlschrank. Entscheidend ist nicht nur die Miniaturisierung, sondern das industrielle Signal: Es gibt bereits KI-Hardware, die außerhalb der Atmosphäre in Betrieb ist.
Mehr noch: Berichten zufolge wurde das System weiter genutzt und ermöglichte es, KI-Modelle fortlaufend auszuführen. Parallel demonstrierte Starcloud außerdem einen symbolischen Meilenstein: das Training eines KI-Modells im All im kleinen Maßstab, indem das Gemma-Modell von Google auf einem Satelliten eingesetzt wurde. Es ist ein erster Schritt – aber genau die Art von Test, die eine futuristische Idee in eine Roadmap mit messbaren Etappen verwandelt.
Mit derselben Logik blickt Starcloud bereits auf die nächste Phase: Geplant ist ein größerer Satellit mit einem GPU-Cluster bis Ende 2026; zudem will man Anfang 2027 Dienstleistungen für Weltraum-Computing anbieten. In einer Branche, die oft von Versprechen lebt, machen solche Zeitpläne einen Unterschied – auch wenn wir noch klar in der experimentellen Phase sind.
SpaceX und OpenAI: enorme Chancen, ebenso große Hürden
Wenn es ein Unternehmen gibt, das in diese Geschichte fast „zu perfekt“ passt, dann ist es SpaceX – aus einem offensichtlichen Grund: Es vereint Raketen, Satelliten und Startkosten in einem Ökosystem. In diesem Zusammenhang wurde darauf hingewiesen, dass SpaceX einen möglichen Börsengang 2026 vorbereitet und ein Teil der Finanzierung in KI-Rechenzentren im All fließen könnte. Elon Musk hat die Idee sogar als gut bezeichnet und angedeutet, dass der Weltraum in etwa fünf Jahren der günstigste Ort sein könnte, um KI zu trainieren – eine provokant klingende Aussage, die jedoch den Kern des Problems trifft: Energie- und Infrastrukturkosten am Boden.
Auch OpenAI taucht auf dem Radar auf. CEO Sam Altman hat in der Vergangenheit erklärt, dass der Aufbau von Rechenzentren auf der Erde „vielleicht keinen Sinn“ ergebe, und Berichte nennen ein Interesse an Weltraum-Rechenzentrumsoptionen, einschließlich Annäherungen an Start-up-Unternehmen aus der Raketenbranche. Währenddessen steigen die Ausgaben für Infrastruktur auf der Erde weiter: So wurde angegeben, dass OpenAI in den kommenden acht Jahren 1,4 Billionen US-Dollar in Rechenzentren investieren will, und dass Microsoft im Fiskaljahr 2025 80 Milliarden US-Dollar ausgeben möchte – wobei Meta und Amazon ebenfalls mit großen Investitionen nachlegen. Das Ergebnis: Stromnetze und Wassersysteme geraten unter Druck, insbesondere in den USA.

Der große Haken beim Weltraum-Rechenzentrum bleibt allerdings derselbe: die Kosten und die physischen Risiken im Orbit. Google hat analysiert, dass das Vorhaben nahe an der wirtschaftlichen Machbarkeit wäre, wenn die Startkosten in eine niedrige Erdumlaufbahn bis Mitte der 2030er Jahre auf 200 US-Dollar pro Kilogramm sinken würden. Beratungen wie McKinsey verorten die aktuellen Kosten dagegen bei etwa 1.500 US-Dollar pro Kilogramm, andere Schätzungen bei rund 2.000 US-Dollar pro Kilogramm. Anders gesagt: Die Ökonomie des Plans hängt daran, dass der Preis, „Metall“ in den Orbit zu bringen, drastisch fällt.
Hinzu kommen keineswegs triviale technische Einschränkungen. Strahlung beschleunigt die Alterung und erhöht die Ausfallwahrscheinlichkeit von Elektronik – kritisch, wenn es um Hochleistungshardware geht. Dazu kommt das Risiko von Kollisionen mit Weltraumschrott, ein Problem, das längst nicht mehr nur theoretisch ist: So wurde der Fall eines chinesischen Raumfahrzeugs erwähnt, dessen Fenster durch ein kleines Fragment beschädigt wurde – ein Hinweis darauf, dass der Orbit zunehmend überfüllt ist. Und auch wenn das Vakuum die Wärmeabgabe ohne Wasser ermöglicht, gilt das Thermomanagement von Chips im All weiterhin als Herausforderung, die noch nicht vollständig gelöst ist.
Damit bleibt das Weltraum-Rechenzentrum vorerst ein Versprechen mit realen Prototypen und mächtigen Unterstützern – zugleich aber ein Feld, in dem man weiterhin mit Physik, dem Preis pro Kilogramm und der Fragilität von Elektronik außerhalb des atmosphärischen Schutzes ringt. Spannend ist vor allem: Weil KI die Nachfrage wie ein Motor im roten Drehzahlbereich antreibt, beginnt die Branche ernsthaft Optionen zu prüfen, die vor wenigen Jahren nur in ein Science-Fiction-Drehbuch gepasst hätten … oder in eine endlose Forendiskussion, die einfach nicht aufhört.

