Categories: ForschungInnovation

Microsoft plant Rechenzentren in U-Booten

Im Jahr 2014 war Microsoft davon überzeugt, dass ein versiegelter Container auf dem Meeresboden Möglichkeiten zur Verbesserung der allgemeinen Zuverlässigkeit von Rechenzentren bieten könnte, und so testete das Unternehmen 2015 sein erstes Unterwasser-Rechenzentrum. Nachdem das Unternehmen an seinem Design gearbeitet und seine Funktionsfähigkeit unter Beweis gestellt hatte, stellte es 2018 vor der Küste der schottischen Orkney-Inseln einen Container voller Server auf.

Das Unterwasser-Rechenzentrum auf den Northern Isles wurde von der Naval Group und ihrer Tochtergesellschaft Naval Energies hergestellt. Die auf den Orkney-Inseln ansässige Green Marine war ebenfalls beteiligt und unterstützte die Naval Group und Microsoft bei der Einrichtung, Wartung, Überwachung und dem Abruf des von Microsoft betriebenen Rechenzentrums. Das Datenzentrum wurde im European Marine Energy Centre eingerichtet, das ein Testgelände für Gezeitenturbinen und Wellenenergiekonverter ist.

Nach einigen Jahren der Erprobung hat das Unternehmen jetzt erfolgreich bewiesen, dass Unterwasser-Datenzentren sowohl machbar als auch logistisch, ökologisch und wirtschaftlich praktikabel sind. In einem Blog-Beitrag ging das Unternehmen ausführlich auf die Bergung des Unterwasser-Datenzentrums ein, das etwa 40 Meter tief auf dem Meeresboden eingesetzt wurde. Die Kapsel enthielt 864 Server und die dazugehörige Infrastruktur für das Kühlsystem.

„Die durchweg kühlen unterirdischen Meere ermöglichen auch energieeffiziente Rechenzentrumsdesigns. Sie können zum Beispiel Wärmeaustauschleitungen nutzen, wie man sie auf U-Booten findet“, so der Blog-Beitrag. Nach seiner Bergung wurde der Container gereinigt und zu Gesundheitschecks losgeschickt. Microsoft sagte, dass es eine Handvoll ausgefallener Server und damit verbundener Kabel gab, aber Ben Cutler, Projektmanager in der Microsoft-Forschungsgruppe für Sonderprojekte, der gegenwärtig die Unterwasser-Rechenzentrumsinitiative mit dem Namen Project Natick leitet, behauptete, die Server im Unterwasser-Rechenzentrum seien achtmal zuverlässiger als die an Land.

„Das Team stellt die Hypothese auf, dass die Stickstoffatmosphäre, die weniger korrosiv als Sauerstoff ist, und die Abwesenheit von Menschen, die die Komponenten gefährden können, die Hauptgründe für den Unterschied sind. Wenn die Analyse dies als richtig erweist, kann das Team die Ergebnisse möglicherweise in Datenzentren an Land übersetzen“, so der Blog weiter.

Cutler sagte, das Team werde sich nun Szenarien für den Einsatz von Unterwasser-Datenzentren ausdenken, wie z.B. die gemeinsame Unterbringung eines Unterwasser-Datenzentrums mit einem Offshore-Windpark. Weitere Vorteile im Zusammenhang mit der Nachhaltigkeit könnten darin bestehen, dass keine Ersatzteile verwendet werden müssen, sagte er und bemerkte, dass die hohe Zuverlässigkeit der Server bedeute, dass die wenigen, die frühzeitig ausfallen, einfach offline genommen werden könnten.

Darüber hinaus sagte er, das Projekt Natick zeige, dass Rechenzentren betrieben und kühl gehalten werden könnten, ohne dass Süßwasserressourcen angezapft werden müssten. „Jetzt will Microsoft d Wege finden, wie dies für Land-Datenzentren möglich ist“, sagte er.

Mit dem wachsenden Bedarf an Edge-Computing, so Microsoft, gebe es auch einen wachsenden Bedarf an kleineren Rechenzentren in der Nähe der Kunden anstelle von großen Lagerhaus-Rechenzentren.

„Wir bevölkern den Globus mit großen und kleinen Edge-Geräten“, sagte William Chappell, Vizepräsident Microsft Azure. „Wir wollen zu lernen, wie man Rechenzentren so zuverlässig macht, dass sie nicht von Menschenhand bedient werden müssen.“

Das Azure-Team ist in das Projekt eingestiegen und hofft, dass es das Potenzial hat, Azure in die Lage zu versetzen, Kunden zu bedienen, die taktische und kritische Rechenzentren überall auf der Welt einrichten und betreiben müssen.

Die Ergebnisse fließen auch in die Nachhaltigkeitsstrategie von Microsoft für Rechenzentren ein. Microsoft kündigte im Januar seinen Plan an, bis 2030 kohlenstoffnegativ zu sein. Der Plan sieht vor, dass Microsoft die Verantwortung für seinen Kohlenstoff-Fußabdruck übernimmt, indem es für eine Senkung der Emissionen sorgt.

ANZEIGE

Netzwerksicherheit und Netzwerkmonitoring in der neuen Normalität

Die Gigamon Visibility Platform ist der Katalysator für die schnelle und optimierte Bereitstellung des Datenverkehrs für Sicherheitstools, Netzwerkperformance- und Applikationsperformance-Monitoring. Erfahren Sie in diesem Webinar, wie Sie mit Gigamon-Lösungen die Effizienz ihrer Sicherheitsarchitektur steigern und Kosten einsparen können.

Jakob Jung

Recent Posts

Yippie-Ya-Yay, Schweinebacke!

Bruce Willis per Deepfake: Der Die Hard Star hat seine Persönlichkeitsrechte für einen digitalen Zwilling…

1 Tag ago

Quantum Builder verbreitet Trojaner

Der Remote Access Trojaner (RAT) Agent Tesla wird mittels Spear Phishing über einen im Dark…

1 Tag ago

Red Hat kündigt OpenStack Platform 17 an

Die neue Version der OpenStack Platform 17 unterstützt Service-Provider beim Aufbau umfangreicher, sicherer und moderner…

1 Tag ago

Digitale Souveränität gefordert

Auf dem IONOS Summit in der Messe Karlsruhe ging es um den Cloud-Markt und neue…

1 Tag ago

Google stellt Stadia ein

Google wird seinen Spieledienst Stadia am 18. Januar 2023 abschalten. Die Spieler erhalten ihr Geld…

1 Tag ago

Der Wandel ist die neue Konstante

Mitarbeiter verlassen sich heute auf digitale Tools am Arbeitsplatz, um entspannter zusammenzuarbeiten, aber gleichzeitig sind…

1 Tag ago