Microsoft beschleunigt Bing durch Einsatz programmierbarer Prozessoren

Microsoft hat erste Tests mit programmierbaren Prozessoren, sogenannten Field Programmable Gate Arrays (FPGA), zur Steigerung der Effizienz seiner Rechenzentren abgeschlossen. In Zusammenarbeit mit dem Bing-Team wurden im Rahmen des „Catapult“ genannten Projekts in mehr als 1600 Servern Xeon-Prozessoren von Intel mit FPGA-Chips von Altera kombiniert, um herauszufinden, ob sie schnellere und bessere Suchergebnisse liefern als die bisher verwendeten Server.

„Das System nimmt Suchanfragen von Bing und lagert einen Teil der Arbeit an die FPGAs aus, die speziell für die hohen Arbeitslasten programmiert wurden, die für die Auswahl und Ermittlung der Reihenfolge von Suchergebnissen benötigt werden“, heißt es dazu in einem Bericht von Wired. Laut Doug Burger, Direktor für Client- und Cloud-Apps bei Microsoft Research, verarbeiten die FPGAs die Suchalgorithmen von Bing 40-mal schneller als eine CPU. Das System soll dadurch doppelt so schnell sein wie die bisher vorhandene Bing-Rechenzentrums-Hardware. Als Folge könne Microsoft die Zahl der benötigten Server halbieren.

Microsoft forscht schon seit Jahren im Bereich FPGA. Es unterstützt unter anderem ein Projekt des Research Accelerator for Multiple Processors (RAMP), das bei der Entwicklung von FPGAs helfen soll.

In einem Whitepaper (PDF) zu den Tests sagen die Microsoft-Forscher voraus, dass die Programmierbarkeit von FPGAs künftig ein Problem darstellen wird. Derzeit seien Domänen-spezifische Programmiersprachen wie Scala und OpenCL sowie spezielle Tools für FPGAs ausreichend. In den kommenden 10 bis 15 Jahren würden aber höher integrierte Entwicklertools benötigt, so die Autoren der Studie.

„Wir kommen zu dem Schluss, dass verteilte rekonfigurierbare Strukturen ein gangbarer Weg für die Zukunft sind, da Anstiege bei der Serverleistung abnehmen. Zum Ende des Mooreschen Gesetzes sind sie entscheidend für weitere Verbesserungen der Möglichkeiten und Kosten. Rekonfigurierbarkeit ist ein wichtiges Mittel, durch das die Beschleunigung der Hardware mit den schnellen Veränderungen im Bereich Datacenter-Services mithalten kann“, heißt es weiter in dem Whitepaper.

[mit Material von Mary Jo Foley, ZDNet.com]

Tipp: Wie gut kennen Sie sich mit Prozessoren aus? Überprüfen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die ZDNet-Redaktion. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

EU-Datenschützer kritisieren Facebooks „Zustimmung oder Bezahlung“-Modell

Ohne eine kostenlose Alternative, die ohne Zustimmung zur Verarbeitung personenbezogener Daten zu Werbezwecken auskommt, ist…

12 Stunden ago

Europol meldet Zerschlagung der Phishing-as-a-Service-Plattform LabHost

LabHost gilt als einer der größten Phishing-Dienstleister weltweit. Die Ermittler verhaften 37 Verdächtige, darunter der…

14 Stunden ago

DE-CIX Frankfurt bricht Schallmauer von 17 Terabit Datendurchsatz pro Sekunde

Neuer Datendurchsatz-Rekord an Europas größtem Internetknoten parallel zum Champions-League-Viertelfinale.

1 Tag ago

Samsungs neuer LPDDR5X-DRAM erreicht 10,7 Gbit/s

Die neuen Chips bieten bis zu 25 Prozent mehr Leistung. Samsung steigert auch die Energieeffizienz…

1 Tag ago

Cisco warnt vor massenhaften Brute-Force-Angriffen auf VPNs

Betroffen sind Lösungen von Cisco, Fortinet, SonicWall und anderen Anbietern. Die Hacker nehmen Konten mit…

1 Tag ago

Cybersicherheit in KMUs: Es herrscht oft Aufholbedarf

Immer häufiger müssen sich Betriebe gegen Online-Gefahren wehren. Vor allem in KMUs werden oft noch…

2 Tagen ago