Intel Larrabee: Sieht so die Grafikkarte der Zukunft aus?

Für Rendering-Aufgaben, die weder mit DirectX noch mit OpenGL optimal zu lösen sind, bietet sich Anwendungsentwicklern mit Larrabee die Möglichkeit, aus gegebenen Eingabedaten selbst Rendering-Algorithmen zu implementieren. Doch auch diese Möglichkeit haben ATI und Nvidia bereits realisiert. Mit CUDA bietet Nvidia ein API, mit dem sich Nvidia-Grafikkarten frei programmieren lassen. ATI bietet ein Stream-Computing-SDK an, das die Sprache Brook+ verwendet, eine AMD-Variante von BrookGPU.

Die GPUs von ATI und Nvidia haben sich in den letzten Jahren so weit hin zu einer CPU mit massiv parallelen Eigenschaften entwickelt, dass sie nicht nur als Grafikkarten eingesetzt werden, sondern auch für die Durchführung besonders rechenintensiver Aufgaben. Dazu gehören Image- und Video-Encoding, geologische Simulationen, Finanzmarktanalyse und viele andere wissenschaftliche Berechnungen. Bekanntestes Beispiel ist das Distributed-Computing-Projekt Folding@Home zur Simulation von Proteinfaltungen. Die Performance liegt meist zehn- bis fünfzigmal höher als bei einer Quad-Core-CPU auf Core-2-Basis.

Nvidia hat bereits damit begonnen, GPU-Karten unter dem Namen Tesla zu vermarkten. Dabei handelt es sich um GPU-Karten, die ausschließlich zum Hochgeschwindigkeitsrechnen vorgesehen sind und über keinerlei Schnittstelle zu einem Monitor verfügen. Vorgesehene Einsatzorte sind Compute-Cluster in Rechenzentren.

Angesichts dieser rasanten Entwicklung ist Intel zum Handeln gezwungen. Wenn sich rechenintensive Vorgänge um zweistellige Faktoren schneller auf GPUs ausführen lassen, droht Intel der Fall ins technologische Abseits. Wenn sich ein Standard für GPU-Computing herausbildet, muss eine klassische CPU nur noch Verwaltungsaufgaben für Speicher und Peripheriegeräte übernehmen. Die Rechenleistung wird aus GPUs bezogen. In so einer Architektur besteht wenig Bedarf für eine Hochleistungs-CPU.

Themenseiten: Client & Desktop, Grafikchips, Intel

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Intel Larrabee: Sieht so die Grafikkarte der Zukunft aus?

Kommentar hinzufügen
  • Am 29. September 2009 um 17:59 von Larra B

    8bit textur
    "
    So werden Textures in einer maximalen Farbtiefe von 8 Bits unterstützt, siehe Bild 11. Das reicht aus, um beispielsweise eine Spielfigur zu zeichnen, professionellere CAD-Anwendungen benötigen jedoch eine höhere Farbtiefe.
    "

    Texturen können wohl eher mit 8bit pro Kanal (also rgb = 24 bit) genutzt werden, nicht wie der Autor meint als 8bit Texturen (was palettierte Texturen bedeuten würde).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *