Categories: ForschungInnovation

Microsoft plant Rechenzentren in U-Booten

Im Jahr 2014 war Microsoft davon überzeugt, dass ein versiegelter Container auf dem Meeresboden Möglichkeiten zur Verbesserung der allgemeinen Zuverlässigkeit von Rechenzentren bieten könnte, und so testete das Unternehmen 2015 sein erstes Unterwasser-Rechenzentrum. Nachdem das Unternehmen an seinem Design gearbeitet und seine Funktionsfähigkeit unter Beweis gestellt hatte, stellte es 2018 vor der Küste der schottischen Orkney-Inseln einen Container voller Server auf.

Das Unterwasser-Rechenzentrum auf den Northern Isles wurde von der Naval Group und ihrer Tochtergesellschaft Naval Energies hergestellt. Die auf den Orkney-Inseln ansässige Green Marine war ebenfalls beteiligt und unterstützte die Naval Group und Microsoft bei der Einrichtung, Wartung, Überwachung und dem Abruf des von Microsoft betriebenen Rechenzentrums. Das Datenzentrum wurde im European Marine Energy Centre eingerichtet, das ein Testgelände für Gezeitenturbinen und Wellenenergiekonverter ist.

Nach einigen Jahren der Erprobung hat das Unternehmen jetzt erfolgreich bewiesen, dass Unterwasser-Datenzentren sowohl machbar als auch logistisch, ökologisch und wirtschaftlich praktikabel sind. In einem Blog-Beitrag ging das Unternehmen ausführlich auf die Bergung des Unterwasser-Datenzentrums ein, das etwa 40 Meter tief auf dem Meeresboden eingesetzt wurde. Die Kapsel enthielt 864 Server und die dazugehörige Infrastruktur für das Kühlsystem.

„Die durchweg kühlen unterirdischen Meere ermöglichen auch energieeffiziente Rechenzentrumsdesigns. Sie können zum Beispiel Wärmeaustauschleitungen nutzen, wie man sie auf U-Booten findet“, so der Blog-Beitrag. Nach seiner Bergung wurde der Container gereinigt und zu Gesundheitschecks losgeschickt. Microsoft sagte, dass es eine Handvoll ausgefallener Server und damit verbundener Kabel gab, aber Ben Cutler, Projektmanager in der Microsoft-Forschungsgruppe für Sonderprojekte, der gegenwärtig die Unterwasser-Rechenzentrumsinitiative mit dem Namen Project Natick leitet, behauptete, die Server im Unterwasser-Rechenzentrum seien achtmal zuverlässiger als die an Land.

„Das Team stellt die Hypothese auf, dass die Stickstoffatmosphäre, die weniger korrosiv als Sauerstoff ist, und die Abwesenheit von Menschen, die die Komponenten gefährden können, die Hauptgründe für den Unterschied sind. Wenn die Analyse dies als richtig erweist, kann das Team die Ergebnisse möglicherweise in Datenzentren an Land übersetzen“, so der Blog weiter.

Cutler sagte, das Team werde sich nun Szenarien für den Einsatz von Unterwasser-Datenzentren ausdenken, wie z.B. die gemeinsame Unterbringung eines Unterwasser-Datenzentrums mit einem Offshore-Windpark. Weitere Vorteile im Zusammenhang mit der Nachhaltigkeit könnten darin bestehen, dass keine Ersatzteile verwendet werden müssen, sagte er und bemerkte, dass die hohe Zuverlässigkeit der Server bedeute, dass die wenigen, die frühzeitig ausfallen, einfach offline genommen werden könnten.

Darüber hinaus sagte er, das Projekt Natick zeige, dass Rechenzentren betrieben und kühl gehalten werden könnten, ohne dass Süßwasserressourcen angezapft werden müssten. „Jetzt will Microsoft d Wege finden, wie dies für Land-Datenzentren möglich ist“, sagte er.

Mit dem wachsenden Bedarf an Edge-Computing, so Microsoft, gebe es auch einen wachsenden Bedarf an kleineren Rechenzentren in der Nähe der Kunden anstelle von großen Lagerhaus-Rechenzentren.

„Wir bevölkern den Globus mit großen und kleinen Edge-Geräten“, sagte William Chappell, Vizepräsident Microsft Azure. „Wir wollen zu lernen, wie man Rechenzentren so zuverlässig macht, dass sie nicht von Menschenhand bedient werden müssen.“

Das Azure-Team ist in das Projekt eingestiegen und hofft, dass es das Potenzial hat, Azure in die Lage zu versetzen, Kunden zu bedienen, die taktische und kritische Rechenzentren überall auf der Welt einrichten und betreiben müssen.

Die Ergebnisse fließen auch in die Nachhaltigkeitsstrategie von Microsoft für Rechenzentren ein. Microsoft kündigte im Januar seinen Plan an, bis 2030 kohlenstoffnegativ zu sein. Der Plan sieht vor, dass Microsoft die Verantwortung für seinen Kohlenstoff-Fußabdruck übernimmt, indem es für eine Senkung der Emissionen sorgt.

ANZEIGE

Netzwerksicherheit und Netzwerkmonitoring in der neuen Normalität

Die Gigamon Visibility Platform ist der Katalysator für die schnelle und optimierte Bereitstellung des Datenverkehrs für Sicherheitstools, Netzwerkperformance- und Applikationsperformance-Monitoring. Erfahren Sie in diesem Webinar, wie Sie mit Gigamon-Lösungen die Effizienz ihrer Sicherheitsarchitektur steigern und Kosten einsparen können.

ZDNet.de Redaktion

Recent Posts

Jeder zweite hat Probleme mit Internetanbieter

Laut EY haben innerhalb eines Jahres 22 Prozent der Haushalte ihren Provider gewechselt – nirgendwo…

1 Tag ago

Tech-Unternehmen in Deutschland blicken mit Sorge auf die USA

Bitkom-Umfrage zeigt: 78 Prozent befürchten durch Trump-Sieg Schaden für die deutsche Wirtschaft.

1 Tag ago

Support-Ende von Windows 10: Microsoft hält an TPM 2.0 für Windows 11 fest

Der Sicherheitschip ist laut Microsoft eine „Notwendigkeit“. Die Hardwareanforderungen für Windows 11 führen allerdings weiterhin…

1 Tag ago

IONOS führt Preisrechner für Cloud-Dienste ein

Wer die Cloud-Angebote des IT-Dienstleisters nutzen will, kann ab sofort die Kosten noch vor Bereitstellung…

2 Tagen ago

Jahresrückblick: 467.000 neue schädliche Dateien täglich

Die Zahl der neuen schädlichen Dateien steigt seit 2021 kontinuierlich. 93 Prozent der Angriffe nehmen…

2 Tagen ago

Kaspersky-Prognose: Raffiniertere Deepfakes und mehr Abo-Betrug

Die zunehmende KI-Verbreitung erschwere die Erkennung von Fälschungen. Gleichzeitig begünstige der Abo-Trend das Aufkommen neuer…

3 Tagen ago