Categories: KomponentenWorkspace

Google-Ingenieur: Energie könnte teurer werden als die Server-Hardware

Der Google-Ingenieur Luiz Andre Barroso warnt davor, dass die Energiekosten für den Betrieb von Servern bald höher sein werden als deren Anschaffungskosten, wenn sich das Performance-per-Watt-Verhältnis nicht verbessert. Das könne ernste Konsequenzen auf das Computing-Umfeld haben.

Die Äußerungen von Barroso sind im Magazin „Queue“ der Association for Computing Machinery nachzulesen. „Wenn das Performance-per-Watt-Verhältnis über die nächsten Jahre konstant bleibt, können die Energiekosten die Hardwarekosten schnell übersteigen, möglicherweise ganz erheblich“, so der Google-Ingenieur. Wenn der Stromverbrauch von Computern außer Kontrolle gerate, habe dies möglicherweise ernsthafte Auswirkungen auf die Realisierbarkeit computergestützter Anwendungen.

Als Lösungsansatz schlägt Barroso den Weg vor, den Sun Microsystems mit dem Niagara-Prozessor gegangen ist: Die parallele Ausführung möglichst vieler Threads auf einem Prozessor. Während die meisten Server-CPUs parallel maximal vier Threads ausführen können, sind es beim Niagara 32. Barroso, der früher bei Digital Equipment selbst in der CPU-Entwicklung tätig war, hat damals an einem Projekt mit ähnlichen Eigenschaften gearbeitet. Es kam jedoch nie auf den Markt.

Der Stromverbrauch der Niagara-CPU liegt, trotz der bei bestimmten Anwendungen deutlich höheren Performance, mit 72 Watt unter AMDs Opteron, der sich bis zu 95 Watt genehmigt. Xeon-Chips von Intel benötigen sogar zwischen 110 und 165 Watt. Das Unternehmen wird seine leistungshungrige Netburst-Architektur in der zweiten Jahreshälfte 2006 daher in Rente schicken und durch ein deutlich sparsameres Design auf Pentium-M-Basis ersetzen. Der Trend, immer mehr Rechenkerne auf einer CPU unterzubringen, ist bei allen CPU-Herstellern zu beobachten.

Barroso räumt allerdings ein, dass auf dem Weg in die Multi-Core-Welt noch erhebliche Hürden überwunden werden müssen. So seien bei der Programmierung neue Methoden gefragt, um die potentielle Leistung in der Praxis auszureizen.

Außerdem könne man das Energieproblem nicht alleine mit Multithreading in den Griff bekommen. Langfristig seien tiefgreifende Innovationen bei der Architektur und den Schaltkreisen notwendig.

Gerade für Betreiber großer Rechenzentren ist der Energieverbrauch von entscheidender Bedeutung. So nutzt Google Cluster mit mehreren tausend Servern. Neben dem Stromverbrauch ist in diesem Umfeld auch die entstehende Abwärme ein wichtiges Thema. Der ZDNet-Artikel Googles Technologien: Von Zauberei kaum zu unterscheiden“ gibt einen Überblick über die Infrastruktur und beschreibt die besonderen Herausforderungen.

ZDNet.de Redaktion

Recent Posts

Künstliche Intelligenz fasst Telefonate zusammen

Die App satellite wird künftig Telefongespräche in Echtzeit datenschutzkonform mit Hilfe von KI zusammenfassen.

2 Stunden ago

MDM-Spezialist Semarchy stellt Data-Intelligence-Lösung vor

Als Erweiterung von Master-Data-Management ermöglicht es die Lösung, den Werdegang von Daten verstehen und sie…

3 Stunden ago

Apple stopft 15 Sicherheitslöcher in iOS und iPadOS

Sie erlauben unter anderem das Einschleusen von Schadcode. In älteren iPhones und iPads mit OS-Version…

4 Stunden ago

Hochleistungs-NAS-Speicher für KI-Daten

Neuer Speicher für KI von Huawei mit integrierter Ransomware-Erkennungs-Engine und deutlich geringerem Energiekonsum.

4 Stunden ago

Abo für Facebook: Verbraucherzentrale NRW klagt erneut gegen Meta

Diesmal geht es um das neue Abomodell für Facebook und Instagram. Die Verbraucherschützer klagen auf…

17 Stunden ago

Jedes zweite Gerät mit Redline-Infostealer infiziert

Infostealer-Infektionen haben laut Kaspersky-Studie zwischen 2020 und 2023 um mehr als das sechsfache zugenommen.

22 Stunden ago