ATI Radeon HD 5870: Erste DirectX-11-Grafikkarte im Test

AMD präsentiert mit der ATI Radeon HD 5870 als erster Hersteller einen DirectX-11-Grafikchip, der deutlich leistungsfähiger als der Vorgänger Radeon HD 4890 ist und zudem auch die Konkurrenz in Schach halten kann.

AMD liefert als erster Hersteller mit dem ATI Radeon HD 5870 und dem Radeon HD 5850 zwei neue Grafikchips, die vollständige Unterstützung für DirectX 11 und Open CL 1.0 bieten. Entsprechende Grafikkarten mit 1 GByte Speicher kosten nach Angaben von AMD 349 respektive 239 Euro. Erste Grafikkarten mit den neuen Chips sollten in wenigen Tagen erhältlich sein.

Der ATI Radeon HD 5870 bietet auf einer Fläche von 334 mm2 über 2,1 Milliarden Transistoren. Gegenüber der Architektur des Vorgängers hat ATI die Anzahl der Shader auf 1600 verdoppelt. Zudem benötigt der Chip im Idle-Modus deutlich weniger Energie. Mit 2,7 Teraflops bei einfacher Genauigkeit und 544 GigaFlops bei doppelter Genauigkeit erreicht AMD neue Benchmark-Rekorde. Das ist immerhin 177-mal soviel was der Deep Blue Supercomputer zustande bringt. Zudem bietet der neue Chip eine verbesserte anisotropische Filterung mit deutlich höherer Performance und Qualität. Außerdem soll der neue Chip bei der Kantenglättung deutlich effizienter arbeiten, sodass der Leistungsverlust bei Aktivierung höherer Kantenglättungsverfahren nicht so stark ausfällt.

Konkurrent Nvidia wird voraussichtlich erst Anfang nächsten Jahres mit dem GT300 einen DirectX-11-kompatiblen Grafikchip liefern können. Bis dahin sollten die Preise für Grafikkarten mit den aktuellen Geforce-Chips deutlich im Preis fallen. Denn in nahezu allen Benchmarks können die ATI-Modelle die Konkurrenz hinter sich lassen.

Themenseiten: AMD, Client & Desktop, Geforce, Grafikchips, Nehalem, Radeon

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

4 Kommentare zu ATI Radeon HD 5870: Erste DirectX-11-Grafikkarte im Test

Kommentar hinzufügen
  • Am 24. September 2009 um 12:44 von Schall und Rauch

    Warum keine GTX 295 im Test
    Also wie aussagekräftig ist der Test, wenn mit einer GTX 285 und nicht mit einer GTX 295 verglichen wurde.

    Und jetzt bitte nicht mit dem Preissegment ankommen. Die angegebenen Preise werden so wohl eh nicht gehalten werden können. Zudem sollen Die Preise für die NVidia Karten laut Artikel ja signifikant sinken.

    In diesem Zusammenhang von Benchmark-Krone zu sprechen ist doch wohl etwas unglaubhast oder nicht?

    • Am 24. September 2009 um 13:27 von Mendoza

      AW: Warum keine GTX 295 im Test
      ihnen ist vielleicht nicht aufgefallen, dass nur single gpu karten getestet wurden. was sollte es also bringen eine GTX 295 zu benchen? insofern kann man schon von der leistungskrone unter single gpu karten sprechen.

      btw, mit erscheinen der HD 5870 X2 ist es auch mit der dominanz der GTX 295 vorbei und wie es aussieht wird nvidia die GT300 dieses jahr nicht mehr releasen.

      • Am 25. September 2009 um 11:48 von Schall und Rauch

        AW: AW: Warum keine GTX 295 im Test
        Wer lesen kann ist klar im Vorteil. Da muss ich mir nun wohl selbst die lange Nase drehen :-)

        Also nichts für Ungut.

        Bitte beim Test der X2 bzw. Doppelkern Grafikkarten auch Armed Assault II berücksichtigen, das dieses Spiel mehrere GPU-Kerne unterstützt. Dann kann man sich ein besseres Bild davon machen ob eine Dual GPU Grafikkarte ihr Geld wirklich Wert ist.
        Vielen Dank

  • Am 23. September 2009 um 13:45 von Mendoza

    Auflösung
    @Redaktion

    vielen dank für diesen Test… eins verstehe ich nicht: weshalb testet ihr in einer „weltfremden“ auflösung, die weniger als 0,7% der User laut einer Statistik einsetzen? bei keiner der großen websiten, zu denen ihr ohne zweifel auch zählt, wie computerbase.de, hardwareluxx.de, xbitlabs.com, planet3dnow.de etc. wurde je mit dieser auflösung gebencht.

    mit 1680×1050 oder 1920×1200 können viele etwas anfangen aber mit 2048×1152 eher nicht?!

    danke, ich hoffe/bitte um feedback

    Antwort der Redaktion:
    Vielen Dank für das Feedback. In der Tat ist die Auflösung von 2048 x 1152 unseres Samsung 2343BW ungewöhnlich, allerdings unterscheidet sich die Gesamtanzahl der Bildpunkte, die für die Performance letztendlich ausschlaggebend ist, kaum von der eines Monitors mit 1920 x 1200 Bildpunkten. Somit sind beide Auflösungen miteinander vergleichbar.

    Aufgrund der Kürze der Testzeit haben wir größeren Wert auf die verwendeten Benchmarks gelegt. Daher finden sie bei uns auch Leistungswerte des neuen Grafikchips in Verbindung mit dem gerade erschienen 3D-Spiel Need for Speed Shift und dem Videokonvertierungstool Cyberlink MediaShow Espresso. Letzteres verwendet die GPU für die Umwandlung und ist damit deutlich schneller als ein Core i7 965 mit 3,2 GHz.

    Mit freundlichen Grüßen
    Kai Schmerer

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *