Categories: ForschungInnovation

Microsoft plant Rechenzentren in U-Booten

Im Jahr 2014 war Microsoft davon überzeugt, dass ein versiegelter Container auf dem Meeresboden Möglichkeiten zur Verbesserung der allgemeinen Zuverlässigkeit von Rechenzentren bieten könnte, und so testete das Unternehmen 2015 sein erstes Unterwasser-Rechenzentrum. Nachdem das Unternehmen an seinem Design gearbeitet und seine Funktionsfähigkeit unter Beweis gestellt hatte, stellte es 2018 vor der Küste der schottischen Orkney-Inseln einen Container voller Server auf.

Das Unterwasser-Rechenzentrum auf den Northern Isles wurde von der Naval Group und ihrer Tochtergesellschaft Naval Energies hergestellt. Die auf den Orkney-Inseln ansässige Green Marine war ebenfalls beteiligt und unterstützte die Naval Group und Microsoft bei der Einrichtung, Wartung, Überwachung und dem Abruf des von Microsoft betriebenen Rechenzentrums. Das Datenzentrum wurde im European Marine Energy Centre eingerichtet, das ein Testgelände für Gezeitenturbinen und Wellenenergiekonverter ist.

Nach einigen Jahren der Erprobung hat das Unternehmen jetzt erfolgreich bewiesen, dass Unterwasser-Datenzentren sowohl machbar als auch logistisch, ökologisch und wirtschaftlich praktikabel sind. In einem Blog-Beitrag ging das Unternehmen ausführlich auf die Bergung des Unterwasser-Datenzentrums ein, das etwa 40 Meter tief auf dem Meeresboden eingesetzt wurde. Die Kapsel enthielt 864 Server und die dazugehörige Infrastruktur für das Kühlsystem.

„Die durchweg kühlen unterirdischen Meere ermöglichen auch energieeffiziente Rechenzentrumsdesigns. Sie können zum Beispiel Wärmeaustauschleitungen nutzen, wie man sie auf U-Booten findet“, so der Blog-Beitrag. Nach seiner Bergung wurde der Container gereinigt und zu Gesundheitschecks losgeschickt. Microsoft sagte, dass es eine Handvoll ausgefallener Server und damit verbundener Kabel gab, aber Ben Cutler, Projektmanager in der Microsoft-Forschungsgruppe für Sonderprojekte, der gegenwärtig die Unterwasser-Rechenzentrumsinitiative mit dem Namen Project Natick leitet, behauptete, die Server im Unterwasser-Rechenzentrum seien achtmal zuverlässiger als die an Land.

„Das Team stellt die Hypothese auf, dass die Stickstoffatmosphäre, die weniger korrosiv als Sauerstoff ist, und die Abwesenheit von Menschen, die die Komponenten gefährden können, die Hauptgründe für den Unterschied sind. Wenn die Analyse dies als richtig erweist, kann das Team die Ergebnisse möglicherweise in Datenzentren an Land übersetzen“, so der Blog weiter.

Cutler sagte, das Team werde sich nun Szenarien für den Einsatz von Unterwasser-Datenzentren ausdenken, wie z.B. die gemeinsame Unterbringung eines Unterwasser-Datenzentrums mit einem Offshore-Windpark. Weitere Vorteile im Zusammenhang mit der Nachhaltigkeit könnten darin bestehen, dass keine Ersatzteile verwendet werden müssen, sagte er und bemerkte, dass die hohe Zuverlässigkeit der Server bedeute, dass die wenigen, die frühzeitig ausfallen, einfach offline genommen werden könnten.

Darüber hinaus sagte er, das Projekt Natick zeige, dass Rechenzentren betrieben und kühl gehalten werden könnten, ohne dass Süßwasserressourcen angezapft werden müssten. „Jetzt will Microsoft d Wege finden, wie dies für Land-Datenzentren möglich ist“, sagte er.

Mit dem wachsenden Bedarf an Edge-Computing, so Microsoft, gebe es auch einen wachsenden Bedarf an kleineren Rechenzentren in der Nähe der Kunden anstelle von großen Lagerhaus-Rechenzentren.

„Wir bevölkern den Globus mit großen und kleinen Edge-Geräten“, sagte William Chappell, Vizepräsident Microsft Azure. „Wir wollen zu lernen, wie man Rechenzentren so zuverlässig macht, dass sie nicht von Menschenhand bedient werden müssen.“

Das Azure-Team ist in das Projekt eingestiegen und hofft, dass es das Potenzial hat, Azure in die Lage zu versetzen, Kunden zu bedienen, die taktische und kritische Rechenzentren überall auf der Welt einrichten und betreiben müssen.

Die Ergebnisse fließen auch in die Nachhaltigkeitsstrategie von Microsoft für Rechenzentren ein. Microsoft kündigte im Januar seinen Plan an, bis 2030 kohlenstoffnegativ zu sein. Der Plan sieht vor, dass Microsoft die Verantwortung für seinen Kohlenstoff-Fußabdruck übernimmt, indem es für eine Senkung der Emissionen sorgt.

ANZEIGE

Netzwerksicherheit und Netzwerkmonitoring in der neuen Normalität

Die Gigamon Visibility Platform ist der Katalysator für die schnelle und optimierte Bereitstellung des Datenverkehrs für Sicherheitstools, Netzwerkperformance- und Applikationsperformance-Monitoring. Erfahren Sie in diesem Webinar, wie Sie mit Gigamon-Lösungen die Effizienz ihrer Sicherheitsarchitektur steigern und Kosten einsparen können.

ZDNet.de Redaktion

Recent Posts

Apple stellt neuen Mobilprozessor M4 vor

Er treibt das neue iPad Pro mit OLED-Display an. Apple verspricht eine deutliche Leistungssteigerung gegenüber…

4 Stunden ago

Cyberabwehr: Mindestens zwei kritische Vorfälle pro Tag

Davon entfällt ein Viertel auf staatliche Einrichtungen und 12 Prozent auf Industrieunternehmen.

5 Stunden ago

Tunnelvision: Exploit umgeht VPN-Verschlüsselung

Forscher umgehen die Verschlüsselung und erhalten Zugriff auf VPN-Datenverkehr im Klartext. Für ihren Angriff benötigen…

5 Stunden ago

Online-Banking: 42 Prozent kehren Filialen den Rücken

Weitere 40 Prozent der Deutschen erledigen ihre Geldgeschäfte überwiegend online und gehen nur noch selten…

7 Stunden ago

Google veröffentlicht neues Sicherheitsupdate für Chrome

Zwei Schwachstellen in Chrome gehören nun der Vergangenheit an. Von ihnen geht ein hohes Risiko…

11 Stunden ago

Digitale Souveränität: ein essenzieller Erfolgsfaktor für Unternehmen

Mit der zunehmenden computerbasierten und globalen Vernetzung gewinnt die digitale Souveränität an rasanter Bedeutung. Viele…

12 Stunden ago