Nvidia gibt zweites Software-Paket für GPU-Computing frei

Anwendungen des "Graphics Plus Power Pack 2" basieren auf CUDA und PhysX

Nvidia hat eine neue Sammlung nicht grafikorientierter Applikationen veröffentlicht, die statt der CPU den deutlich leistungsfähigeren Grafikchip der Geforce-Karten (ab Geforce 8) zur Prozessberechnung (GPGPU) nutzen. Alle im „Graphics Plus Power Pack 2“ enthaltenen Tools basieren auf der Physikengine PhysX und der frei verfügbaren, von Nvidia entwickelten GPU-Programmiersprache CUDA (Compute Unified Device Architecture).

Die kostenlose Sammlung umfasst unter anderem Testversionen des Video-Transkoders Badaboom von Elemental Technologies, den Videokodierer TMPGEnc Xpress 4.6.2.266 sowie der Videobearbeitungssoftware Power Director 7. Badaboom soll einen zweistündigen Film mithilfe der GPU in 35 Minuten konvertieren können. Das ist bis zu 18-mal weniger als eine Quad-Core-CPU für diesen Vorgang benötigen würde. Da Grafikprozessor die Konvertierung übernimmt, wird der Hauptprozessor entlastet und kann andere Aufgaben wie den Webbrowser oder das E-Mail-Programm ausführen.

Das Power Pack 2 beinhaltet zudem einen Bildschirmschoner sowie die Technologiedemos „Dark Basic Fluids“ und „Dark Basic Physx Soft Body“ von Kenneth Bugeja, die mittels Nvidias PhysX-Technik verschiedene Physikeffekte simulieren. Auch die Spiele „Crazy Machines 2“ und „Warmonger“ (mit zwei neuen Leveln) machen sich die PhysX-Engine zu Nutze.

Das maximal knapp 1065 MByte große CUDA-Softwarepaket steht ab sofort zum Download bereit. Als Mindestvoraussetzungen nennt Nvidia Grafikkarten ab der Geforce-8-Serie mit 256 MByte Speicher und Treiberversion 178.24 oder höher.

Badaboom
Die Kombination aus Badaboom und GPU soll Filme bis zu 18-mal schneller kovertieren können als eine Vierkern-CPU (Bild: Nvidia).

Themenseiten: Grafikchips, Nvidia, Software

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Nvidia gibt zweites Software-Paket für GPU-Computing frei

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *