Unterwasser-Rechenzentren als nachhaltige Lösung?

Rechenzentren stehen meist in großen Hallen und gehören Technologiegiganten wie Microsoft oder Google. Sie funktionieren wie riesige Computer, zusammengesetzt aus tausenden kleinen Einheiten. Dort werden Daten von Webseiten, Apps, künstlicher Intelligenz und Clouddiensten verarbeitet und gespeichert. Ohne sie bricht das digitale Leben zusammen: kein Onlinebanking, kein Streaming, keine Cloud. Wir alle sind auf Rechenzentren angewiesen – doch sie haben auch ihre Schattenseiten. Sie verschlingen seltene Rohstoffe, erzeugen CO₂ und verbrauchen Unmengen an Wasser für ihre Kühlung. Sind Unterwasser-Rechenzentren ein Ausweg aus diesem Dilemma?

Unterwasser-Rechenzentren als Problemlösung?

Jeder kennt ein überhitztes Handy im Sommer. Rechenzentren kämpfen mit demselben Problem – nur in gigantischem Maßstab. Um die Hitze zu kontrollieren, setzen Betreiber auf leistungsstarke Klimaanlagen. Diese verbrauchen nicht nur enorme Mengen Strom, sondern auch Wasser und Geld. In ärmeren Gegenden wie Querétaro in Mexiko entziehen Rechenzentren der Bevölkerung sogar Grundwasser, damit die Server kühl bleiben.
Eine Lösung scheint naheliegend: das Meer. Das kühle Wasser könnte wie eine natürliche Klimaanlage wirken. Diese Idee ist nicht nur effizient, sondern auch günstiger, weil aufwendige Kühlanlagen entfallen.

Rechenzentren beanspruchen auch gigantische Flächen. Das ODATA-Rechenzentrum von Microsoft in Querétaro hat eine Fläche von 275.000 Quadratmeter – umgerechnet 38 Fußballfelder. Fläche, die sonst für Wohnungen oder Felder genutzt werden könnte. Kritiker sprechen von digitalem Kolonialismus: Westliche Tech-Konzerne nutzen Regionen mit schwacher Infrastruktur, verbrauchen Ressourcen und verschärfen lokale Probleme. Auch hier stellt der Meeresboden eine mögliche Alternative als Standort da..

Unterseekabel und Internethubs verlaufen außerdem meist entlang der Küsten. Sie sind die Knotenpunkte unserer globalen Datenströme. Rechenzentren in ihrer Nähe profitieren von schnelleren und direkteren Datenströmen.

Zum Vergleich: Rechenzentren im Landesinneren, die über viele Zwischenstationen angebunden sind, brauchen 30 bis 80 Millisekunden für eine Datenübertragung. Steht ein Rechenzentrum direkt an einem Internetknotenpunkt an der Küste, sinkt diese Zeit auf unter 10 Millisekunden. Das ist, als würde euer Streamingserver neben dem Router stehen. Für 4K-Streaming, Cloud-Gaming oder KI-Dienste zählt jede Millisekunde. Unterwasser-Rechenzentren könnten also nicht nur Energie sparen, sondern auch die Geschwindigkeit unserer digitalen Welt erhöhen.

Microsofts Suche nach Antworten

Die Probleme liegen also auf der Hand: hoher Wasserverbrauch, enormer Energiebedarf, Platzmangel. Microsoft-Ingenieur Ben Cutler wollte herausfinden, ob es besser geht. 2015 startete er das ambitionierte Projekt Natick. Das Ziel: Kühlung durch Meerwasser, Nutzung erneuerbarer Energien, kürzere Datenwege und weniger Wartung. Der erste Versuch: ein Prototyp namens „Leona Philpot“. Ein zylindrischer Container, drei Meter lang, wurde luftdicht verpackt und in neun Meter Tiefe versenkt. 105 Tage lief er problemlos – ein Test, der den Weg für mehr ebnete.

Vom Test zum Erfolg

Microsoft baute einen größeren Prototypen. Ein zwölf Meter langer Stahlzylinder mit 864 Servern entstand. 2018 versenkte das Unternehmen „Northern Isles“ vor den Orkney-Inseln. Der Standort war bewusst gewählt: Die Region liefert Wind- und Meeresenergie. Der Zylinder war luftdicht verschlossen, gefüllt mit Stickstoff, um Korrosion zu verhindern. Zwei Jahre lief er autonom – ohne menschliche Eingriffe.

2020 holte Microsoft das Rechenzentrum zurück an die Oberfläche. Die Auswertung brachte Überraschungen: Die Ausfallrate der Server war achtmal niedriger als an Land. Die stickstoffgefüllte, abgeschlossene Umgebung verhinderte Staub, Korrosion und Temperaturschwankungen. Microsoft stoppte zwar weitere Versuche, konzentrierte sich aber auf die Analyse der Daten.

Ben Cutler und sein Team betonten, dass viele Erkenntnisse auch an Land helfen: bessere Isolierung, weniger Wartung, vollautomatisierte Serverräume. Obwohl kein dritter Test geplant ist, gilt Natick als Erfolg – und als Baustein für die Rechenzentren der Zukunft.

Unter Wasser ist nicht nur Microsoft aktiv

Auch andere Unternehmen wollen die Tiefe erobern. In China baute Beijing Highlander Digital Technology 2023 das größte kommerzielle Unterwasser-Rechenzentrum vor Hainan. Das mehrere hundert Tonnen schwere Modul liegt in 35 Metern Tiefe. Es ist der Start einer ganzen Reihe geplanter Anlagen.

In den USA verfolgt Subsea Cloud einen anderen Ansatz. Das Unternehmen setzt auf kompakte, energieeffiziente Pods. Sie benötigen keine klassischen Klimaanlagen und sparen bis zu 40 Prozent Energie. Sie lassen sich in wenigen Tagen installieren und versprechen flexible Lösungen für die Zukunft.

Die Kehrseite der Innovation

Unterwasser-Rechenzentren wirken innovativ, bergen aber Risiken. Die Abwärme gelangt direkt ins Meer. Ein einzelnes Zentrum verursacht kaum Erwärmung. Doch wenn viele Zentren folgen, könnten empfindliche Ökosysteme leiden. Bislang fehlen Langzeitstudien. Kritiker warnen vor einer „stillen Erwärmung“.

Auch andere Probleme bleiben: Was passiert bei Hardwarefehlern, Datenverlust oder Muschelbewuchs? Ein Zylinder lässt sich nicht einfach öffnen. Der Rücktransport wäre teuer und kompliziert. Auch IT-Sicherheit spielt eine Rolle: Die Steuerung muss fehlerfrei laufen. Ein Angriff auf Strom- oder Datenleitungen hätte schwerwiegende Folgen. Hinzu kommt die Umweltbilanz der Herstellung: Der Bau der schweren Stahlzylinder, Unterseekabel und Spezialtechnik verschlingt Ressourcen. Und am Ende bleibt die Frage: Wird das Modul geborgen und recycelt – oder bleibt es wie manch Offshore-Anlage im Meer zurück?

Alternativen an Land und auf dem Wasser

Es gibt auch klimafreundliche Ideen an Land. Ein Beispiel: Rechenzentren in kühlen Regionen wie Skandinavien oder Island. Dort hilft die Natur bei der Kühlung. Weniger Klimaanlagen bedeuten weniger Energieverbrauch.

Verne Global in Keflavík

Verne Global nutzt „Free Cooling“. Die kalte Luft Islands ersetzt energiehungrige Anlagen. Das spart nicht nur Energie, sondern reduziert auch Wartungskosten. Das Rechenzentrum verwendet ausschließlich erneuerbare Energien – Wasserkraft und Geothermie. Ergebnis: nahezu emissionsfreier Betrieb mit einer PUE von 1,21. PUE steht für Power Usage Effectiveness und misst die Energieeffizienz eines Rechenzentrums. 

Der Bestwert kommt vom Oden Type Data Center (BTDC) in Schweden. Intelligente Luftführung, präzise Ventilatorsteuerung und natürliche Thermodynamik senken den Wert auf 1,0148 – fast perfekt. Ein PUE von 1,0 würde bedeuten, dass der gesamte Strom in den reinen Serverbetrieb fließt.

Ein anderer Ansatz: schwimmende Rechenzentren. Sie werden nicht versenkt, sondern schwimmen in Häfen oder Flüssen. Das Wasser kühlt die Server ohne zusätzliche Anlagen. Diese Zentren sind leichter zugänglich und flexibel.
Ein Beispiel ist Stockton 1 von Nautilus Data Technologies in Kalifornien. Es liegt auf einer schwimmenden Plattform und erreicht mit direkter Flusskühlung eine PUE von 1,15.

Der Vergleich

Project Natick – Microsoft (Orkney-Inseln)

  • PUE: 1,07 – sehr energieeffizient
  • Latenz: unter 10 Millisekunden – schnell und stabil. Fazit: Energieeffizienz und Geschwindigkeit im Gleichgewicht.

Stockton 1 – Nautilus Data Technologies (Kalifornien)

  • PUE: 1,15 – sehr gut
  • Latenz: unter 10 Millisekunden – schnell. Fazit: Etwas weniger effizient als Natick, dafür leichter zugänglich.

BTDC – Boden, Schweden

  • PUE: 1,0148 – Weltrekord in Effizienz
  • Latenz: 30–80 Millisekunden – langsamer, aber ideal für nicht zeitkritische Prozesse.

Verne Global – Island

  • PUE: 1,21 – gut, aber nicht Spitzenwert
  • Latenz: 30–80 Millisekunden – solide Performance.

Fazit

Es gibt keine perfekte Lösung. Jedes Modell hat Stärken und Schwächen. Project Natick von Microsoft kombiniert Effizienz mit hoher Geschwindigkeit.
Das schwimmende Stockton 1 punktet mit Flexibilität.
BTDC in Schweden setzt Maßstäbe in Sachen Energieverbrauch, ist aber langsamer.
Verne Global überzeugt mit 100 % Ökostrom, bleibt aber hinter anderen Konzepten zurück. Unterwasser- und schwimmende Rechenzentren sind keine Spielerei mehr. Sie sind ernsthafte Bausteine für die digitale Infrastruktur der Zukunft – besonders, wenn sie mit erneuerbarer Energie kombiniert werden. Aber auch Rechenzentren an Land bleiben unverzichtbar. Rechenintensive Echtzeitanwendungen wie Streaming oder KI brauchen niedrige Latenz. Weniger zeitkritische Prozesse können dagegen in entlegenen, extrem effizienten Zentren laufen.


Image by Josh Jorenson via Pexels


Artikel per E-Mail verschicken