Geforce GTX 680: Nvidia stellt erste Kepler-GPU mit 28 Nanometern vor

Nvidia hat mit der Geforce GTX 680 das erste Modell seiner neuen Grafikkarten-Generation mit 28 Nanometern Strukturbreite vorgestellt. Wie AMDs Radeon-Reihe HD 7000 unterstützt das neue High-End-Modell Microsofts Grafikschnittstelle DirectX 11.1 und den Steckplatz-Standard PCI Express 3.0.

Asus bietet als einer der ersten Hersteller Grafikkarten auf Basis der Kepler-Architektur an (Bild: Asus).
Asus bietet als einer der ersten Hersteller Grafikkarten auf Basis der Kepler-Architektur an (Bild: Asus).

Die Architektur Kepler, die eine Weiterentwicklung des 2010 eingeführten 40-Nanometer-Vorgängers Fermi darstellt, soll deutlich mehr Leistung bei verbesserter Energieeffizienz bieten. Nvidia verspricht eine doppelt so hohe Performance pro Watt gegenüber dem Fermi-Flaggschiff Geforce GTX 580. Im Vergleich zu AMDs aktuellem Topmodell Radeon HD 7970 soll die GTX 680 bei grafikintensiven Spielen wie Skyrim bis zu 43 Prozent mehr Leistung bei 28 Prozent weniger Stromverbrauch liefern. Die maximale Leistungsaufnahme der GTX 680 beträgt laut Hersteller 195 Watt, die der Radeon HD 7970 250 Watt TDP. Zum Anschluss werden nur zwei sechspolige Stecker benötigt.

Der Kepler-Chip GK104 ist mit einer Grundfläche von 294 Quadratmillimetern gegenüber dem GF110 der GTX 580 in etwa nur halb so groß (520 Quadratmillimeter). Auch der Tahiti XT der Radeon HD 7970 misst mit 365 Quadratmillimetern deutlich mehr und ist daher teurer in der Herstellung. Der GK104 verfügt über 1536 Rechenkerne und 128 Textureinheiten. Zum Vergleich: Die GTX 580 mit ihrem GF110-Chip besitzt nur 512 sogenannte CUDA-Cores und 64 Textureinheiten. Die GDDR5-Speichermenge hat Nvidia von 1536 MByte auf 2048 MByte erhöht, aber die Anbindung von 384 Bit auf 256 Bit reduziert. Durch den mit 6010 MHz deutlich gesteigerten effektiven Speichertakt liegt die Speicherbandbreite mit 192 GByte/s dennoch auf dem Niveau des Vorgängers. Die Radeon HD 7970 kommt mit ihrem 384-Bit-Interface auf 264 GByte/s.

Der Grafikkern und die Shadereinheiten der Geforce GTX 680 takten standardmäßig mit 1006 MHz und damit etwas schneller als beim Tahiti XT der Radeon HD 7970 (925 MHz). Dank der eingebauten Turbofunktion “GPU-Boost” kann die GTX 680 ihren Kerntakt dynamisch auf bis zu 1058 MHz erhöhen – ähnlich wie man es von aktuellen CPUs kennt. Entscheidend ist dabei der aktuelle Stromverbrauch: Liegt dieser unter den spezifizierten 195 Watt, steigert die Grafikkarte automatisch die Taktfrequenz. Ist der Grenzwert erreicht, wird der Takt wieder reduziert.

Um den Stromverbrauch zu senken, hat Nvidia die Zahl der Kontrolleinheiten deutlich reduziert. Kümmerte sich eine solche Einheit beim GF110 noch um 32 Shader-Prozessoren, sind es beim GK104 192 Shader-Prozessoren, die zusammen mit einer Kontrolleinheit einen Streaming-Multiprozessor-Block (SMX) bilden. Das allein soll schon in einer doppelten Leistung pro Watt gegenüber der Vorgängergeneration resultieren. Die aufwendige Tesselation-Berechnung läuft Nvidia zufolge durch Anpassungen an den dafür zuständigen Tesselatoren nun zweimal schneller ab. Gegenüber der Radeon HD 7970 soll in diesem Bereich sogar ein Leistungsplus von 300 Prozent erreicht werden.

Mit Temporal Approximate Anti Aliasing (TXAA) führt Nvidia auch eine neue Kantenglättungstechnik ein. Es kombiniert die bekannten Verfahren FXAA (Fast Approximate Anti Aliasing) und MSAA (Multi Sampling Anti Aliasing), was mit verminderter Leistung zu einer besseren Bildqualität führen soll. Neu ist auch Adaptive VSync, das zur Vermeidung von Zeilenverschiebungen die Bildwiederholrate weniger stark absenkt als herkömmliches VSync, wenn die Grafikleistung unter den an die Aufbaurate des Monitors gekoppelten Wert sinkt. Das soll störende Ruckler bei Schwankungen der Bildwiederholrate verhindern.

Außer DirectX 11.1, das einen eigenen Ansatz für stereoskopische 3D-Darstellung mitbringt, unterstützt die GTX 680 OpenGL 4.2, Shader Model 5.0, CUDA, PhysX, PureVideo, 3D Vision und 3-Wege-SLI. Zum Anschluss von Displays stehen zwei DVI-Schnittstellen, ein HDMI-Ausgang und ein Mini-DisplayPort zur Verfügung. Darüber lassen sich bis zu vier Monitore gleichzeitig ansteuern. Die Vorgängergeneration unterstützte maximal zwei Bildschirme. Stereoskopische 3D-Darstellung funktioniert nun mit einer Karte auf drei Bildschirmen, während dazu bisher ein SLI-Verbund aus zwei Nvidia-Grafikkarten benötigt wurde. Auch die Konfigurationsmöglichkeiten für Multi-Monitor-Umgebungen hat Nvidia erweitert, die unter anderem eine Rahmenkorrektur bieten.

Erste Karten mit dem neuen Nvidia-Chip sollen in Kürze unter anderem von Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Point of View, PNY und Zotac erhältlich sein. Der empfohlene Verkaufspreis liegt bei 499 Euro und damit auf dem Niveau der Radeon HD 7970. Die Geforce GTX 580 gibt es mittlerweile für etwa 350 Euro.

Nvidia hat auch eine Mobilversion der neuen GPU-Familie vorgestellt: die Geforce 600M. Sie unterstützt in Kombination mit Intels Prozessoren die Hybridtechnik Optimus sowie PhysX und 3D Vision. Notebooks mit den neuen Grafikchips kommen von Acer, Asus, Dell, HP, Lenovo, LG, Samsung, Sony und Toshiba.

Nvidias Geforce GTX 680 im Vergleich

  Geforce GTX 680 Geforce GTX 580 Radeon HD 7970
Grafikchip GK104 GF110 Tahiti XT
Strukturbreite 28nm 28nm 28nm
Chiptakt 1006 MHz 772 MHz 925 MHz
Shader-Einheiten 1.536 512 2.048
Textur-Einheiten 128 64 128
GDDR5-Speicher 2048 MByte 1536 MByte 3072 MByte
Speichertakt (effektiv) 6010 MHz 4008 MHz 5500 MHz
Speicheranbindung 256 Bit 384 Bit 384 Bit
Speicherbandbreite 192 GByte/s 192 GByte/s 264 GByte/s
Stromverbrauch Volllast (TDP) 195 Watt 244 Watt 250 Watt
Stromverbrauch Leerlauf (TDP) 15 Watt 40 Watt 15 Watt
Preis 500 Euro 350 Euro 500 Euro

Neueste Kommentare 

Eine Kommentar zu Geforce GTX 680: Nvidia stellt erste Kepler-GPU mit 28 Nanometern vor

  • Am 23. März 2012 um 15:22 von Dutom

    Qualität NVIDA Grafikkarten
    Hoffentlich haben die ihre Produktion in den Griff bekommen.
    Ich bin mit meinem Mid 2010 MacBook Pro 15″ i7 leider ein Opfer der schluderig zusammengeschossenen Geforce 330.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *