Nvidia Cuda 6 offiziell vorgestellt: Unified Memory, Drop-in Libraries und Multi-GPU-Scaling

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Cuda 6 offiziell vorgestellt: Unified Memory, Drop-in Libraries und Multi-GPU-Scaling

Grafikkartenhersteller Nvidia hat seine 06. Cuda-Version in einer Pressemitteilung angekündigt, welche die parallele Programmierung deutlich steigern soll. Dies soll durch Bibliotheken geschehen, welche nunmehr von der GPU statt CPU berechnet werden. Außerdem erhalten Applikationen Zugriff auf beide Speicher.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Nvidia Cuda 6 offiziell vorgestellt: Unified Memory, Drop-in Libraries und Multi-GPU-Scaling
 
Da läuft Nvidia AMD aber hinterher. Eine Bibliothek mit GPU beschleunigten Standart-Algorithmen gibt es bereits, nennt sich bei AMD "Bolt".
Und unified memory ist etwas, das AMD seit "Fusion" entwickeln und z.B. in der PS4 eingesetzt wird, nennt sich bei AMD "hUMA" und wird von der HSA gefördert.

Ich will Nvidia nicht kleinreden. Fakt ist, dass CUDA in Praxis und Wirtschaft wesentlich öfter anzutreffen ist, als Lösungen, die auch mit AMD Hardware funktionieren.
 
@SimonG
Vergiss aber nicht, dass AMD "hUMA" nur bei Hauptprozessoren/APUs einsetzt. In ihren Grafikkarten sucht man das noch vergebens. Von Bolt hört und sieht man auch so gut wie nichts...

Unified Memory in diskreten Grafikkarten ist neu. Ob es das in der PS4 gibt, ist irrelevant. Wir PC Gamer brauchen mehr Gemeinsamkeiten und wenn es nach mir ginge, müssten alle Konsolen vom Markt verschwinden ;)
-Soweit mir bisher bekannt ist, könnten Teile von Unified Memory aber in AMDs Mantle verborgen sein... das wird sich aber erst noch zeigen müssen.

Nvidia legt mit CUDA 6 erst einmal vor. Es bleibt abzuwarten wie sehr Maxwell mit den neuen Features umgehen kann. Im Großen und Ganzen ist CUDA 6 aber runderneuert soweit man hört.
 
CUDA 6 ist ein API-Update.

Der Hinweis in der News auf die Treiber zeigt das ja schön. nVidia macht hier eben mal wieder die Hardware über APIs zugänglich. Da hinkt AMD leider sehr hinterher bei OpenCL bewegt sich einfach aktuell so gut wie nichts beim Standard... Das ist sehr traurig, denn GCN kann das auch alles, man kann es "nur" nicht schön per API-Call nutzen...

Die Drop-in Libs sind nett. LIBPATH ändern, neu compilieren und freuen, soweit ich das verstanden habe. Das ist wirklich gut! Denn damit steigt die akzeptanz. Mal schnell was altes neu compilieren ist nicht DER Aufwand. Damit verbreitert man aber die Basis der Leute die sowas nutzen. Traurig daran ist eigentlich nur, dass das mehr oder weniger nur ein wrapper sein wird :-_-: Ergo nicht so performant wie ne native Implementierung, aber halt wirklich einfach zu nutzen. Hier sieht man auch die Stärken von nVidia. Software, welche gleichzeitig AMDs größte Schwäche ist.

Naja, schauen wir mal wann OpenCL 2.0 kommt. da sollten sehr viele Änderungen kommen. Was aber richtig schön ist, ist die Tatsache, das nVidia sich endlich mal wieder um OpenCL kümmert. :daumen:
 
Also das hört sich für mich, auf den ersten Blick, nach einem Konter zu Mantle an.
Nur wird im Artikel vorwiegend von professionellen Anwendungen geredet:
Ist zu erwarten, dass diese Änderungen auch in Spielen greifen und für mehr fps sorgen?! :what:
 
Ist zu erwarten, dass diese Änderungen auch in Spielen greifen und für mehr fps sorgen?! :what:

Es gab meines Wissens nur ein Game, das CUDA für zusätzliche Grafikeffekte genutzt hat, und das war Just Cause 2.
Aber mehr Fps hatte man so nicht, eher weniger. Und es wurde nur genutzt, um unter DX10 zusätzliche Grafikeffekte zu implementieren.
 
Zuletzt bearbeitet:
Also das hört sich für mich, auf den ersten Blick, nach einem Konter zu Mantle an.
Nur wird im Artikel vorwiegend von professionellen Anwendungen geredet:
Ist zu erwarten, dass diese Änderungen auch in Spielen greifen und für mehr fps sorgen?! :what:
Nein, in Spielen nutzt man kein CUDA.

funktioniert cuda 6 auch auf kepler oder muss ich dafür wieder ne neue gpu kaufen ? :ugly:
Frag nVidia.

Kepler an sich wird das können. Wahrscheinlich sogar Fermi, die Frage ist da eher ob nVidia das auch will. Neue CUDA-Versionen verkaufen ja schließlich auch Karten...
 
Also das hört sich für mich, auf den ersten Blick, nach einem Konter zu Mantle an.

Nein!
-Das ist die Vorbereitung auf Maxwell und schon seit Ewigkeiten angekündigt. Damals gab es von Mantle noch nicht einmal Gerüchte. Nvidia wird Mantle außerdem nicht kontern, weil sie viele ähnliche Funktionen in CUDA einbauen werden. Wir brauchen alles aber keinen neuen API-Krieg.

Der letzte API-War hat unter anderem 3dfx in den Ruin getrieben. Das möchte ich weder für AMD noch Nvidia erleben!


Nur wird im Artikel vorwiegend von professionellen Anwendungen geredet:
Ist zu erwarten, dass diese Änderungen auch in Spielen greifen und für mehr fps sorgen?! :what:

Primär vereinfacht es die Programmierung für GPGPU-Anwendungen um ein Vielfaches. Es kostet nur evtl. minimal Performance für die automatische Übergabe des Memory-Managements, aber die Entwickler sparen viel Zeit und Aufwand.

Ob die Änderungen auch auf Spiel zutreffen ist bisher unklar. Ich kann mir aber gut vorstellen, dass Teile davon stark in die neuen PhysX-Effekte integriert werden können.

Anders als AMD muss sich Nvidia dank des kürzlich vorgestellten G-Sync nicht all zu viele Gedanken um FPS machen. Solange die Voraussetzungen dafür erfüllt sind
-GPU mit Kepler oder besser
-G-Sync-Monitor
-Framerate > 30 FPS
Ist Nvidia wahrscheinlich immer besser aufgestellt.


funktioniert cuda 6 auch auf kepler oder muss ich dafür wieder ne neue gpu kaufen ? :ugly:
Kepler an sich wird das können. Wahrscheinlich sogar Fermi, die Frage ist da eher ob nVidia das auch will. Neue CUDA-Versionen verkaufen ja schließlich auch Karten...

Prinzipiell funktionieren die meisten Features von CUDA 6 auch auf Kepler, sonst würde Nvidia nicht mit ihrer Quadro K6000 werben. Was Allerdings nicht möglich wäre, ist dassn ein paar wichtige Implementierungen das Memory-Menagements mit alten Karten nicht funktioneren. Dies wird erst mit Maxwell eingeführt. Die neuen Karten enthalten dann die benötigte "Unified Memory"-Architektur.

Die neuen Features von PhysX wie FlexWorks, Fire-/Smoke-Works sowie GI-Works laufen aber sicherlich auch auf älteren Karten.

Anders als Skysnake vermutet hat Nvidia noch nie Funktionen von CUDA zurück gehalten. Nur wegen CUDA würde niemand neue Karten kaufen. Das ist eher ein Spezialgebiet von Microsoft. Die machen so etwas gerne wie man nur all zu gut weiß ;)


Nein, in Spielen nutzt man kein CUDA.

Das kommt darauf an. Wenn ich mich nicht irre, greifen Geforce Experience und somit Shadowplay (Streaming) auf CUDA zurück. Das muss sich aber erst noch herausstellen. Bisher ist CUDA vorallem für die wissenschaftlichen Anwendungen interessant.
 
Zuletzt bearbeitet von einem Moderator:
Der letzte API-War hat unter anderem 3dfx in den Ruin getrieben. Das möchte ich weder für AMD noch Nvidia erleben!
3dfx ist ganz sicher nicht wegen eines API-Krieges pleite gegangen. Die haben chiptechnisch spätestens mit der Veröffentlichung der Voodoo 3 den Anschluss an die Konkurrenz (Nvidia) verloren und nie wieder aufgeholt. Mit Glide hatte das wenig zu tun.
 
3dfx ist ganz sicher nicht wegen eines API-Krieges pleite gegangen. Die haben chiptechnisch spätestens mit der Veröffentlichung der Voodoo 3 den Anschluss an die Konkurrenz (Nvidia) verloren und nie wieder aufgeholt. Mit Glide hatte das wenig zu tun.

Missmanagement war sicher einer der Hauptgründe, jedoch war es auch nicht hilfreich, dass die Entwickler Glide den Rücken zugekehrt haben und zu DirectX gewechselt sind. 3dfx hat sich an vielen Stellen einfach verhoben und ist daran zugrunde gegangen.

Vergleich doch einmal die Geschäftszahlen von Nvidia. Die sind grundsolide und das über einen längeren Zeitraum. Dazu haben sie ihren Fuß tief im GPGPU-Bereich. Der Gamingsektor läuft ebenfalls hervorragend. Die Expertise ist sichtlich vorhanden... bei AMD sieht das völlig anders aus.

Lass uns aber nicht so tief hierauf eingehen und kurz sagen:
-Für Leute mit GPU-Programmierung ist dieses CUDA-Update enorm sinnvoll!
 
Kanst du so nicht sagen.

Es triffts eher so:
Für Leute, die schnelle GPGPU-Umsetzungen/Beschleunigung von bestehendem Code haben wollen ist es interessant. Damit reagiert man vor allem auf Intel mit XeonPhi.

Primär vereinfacht es die Programmierung für GPGPU-Anwendungen um ein Vielfaches. Es kostet nur evtl. minimal Performance für die automatische Übergabe des Memory-Managements, aber die Entwickler sparen viel Zeit und Aufwand.
Um ein Vielfaches ist übertrieben. Wenn man weiß, was man machen muss, ist es jetzt nichts, was einem um den Verstand bringt, sondern eher lästig ist. (Unified mem) Vor allem wäre ich aber SEHR vorsichtig bzgl Performanceaussagen. Das hängt immer ganz davon ab, was man denn macht. Man kann da auch schnell mal hohe zweistellige Prozentwerte an Performance verlieren je nach Problem. Da muss man schon aufpassen.

Die Drop-in Libs sind da schon eher interressant. Sie sind aber halt "nur" ein 1:1 Replacement. Das ist vor allem für Leute interessant, die bereits bestehenden CPU-Code haben. Wie performant das Replacement ist, muss sich aber auch noch zeigen. Sooo einfach ist das ja auch nicht. Die Probleme müssen ja groß genug sein, damit man überhaupt erstmal den PCI-E Overhead kompensieren kann. Wie immer bei der Arbeit mit dGPUs muss man daher sehr genau schauen, was man macht.

[quiote]
Ob die Änderungen auch auf Spiel zutreffen ist bisher unklar. Ich kann mir aber gut vorstellen, dass Teile davon stark in die neuen PhysX-Effekte integriert werden können.
[/quote]
Theoretisch kann man das in PhysX an sich implementieren. Neue Effekte wird es deswegen aber nicht geben! Man erhält nämlich an sich nichts, was nicht vorher auch schon ging. Man macht es den Anwendern nur etwas leichter die Sachen zu nutzen. Am PhysX Code an sich hat aber eh nur nVidia rumgespielt. Von daher ziemlich uninteressant. Zumal die eben die performanteste Implementierung wählen, und nicht die "Quick and Dirty"-Variante

Anders als AMD muss sich Nvidia dank des kürzlich vorgestellten G-Sync nicht all zu viele Gedanken um FPS machen. Solange die Voraussetzungen dafür erfüllt sind
-GPU mit Kepler oder besser
-G-Sync-Monitor
-Framerate > 30 FPS
Ist Nvidia wahrscheinlich immer besser aufgestellt.
Ähm... ja....

Es hat ja auch JEDER mit nVidia GPU nen G-Sync Monitor
G-Sync Monitore kosten aufgrund mehr Hardware ja auch nicht mehr Geld
und G-Sync kommt ja auch gar nicht erst Ende 2014...


:schief:

Prinzipiell funktionieren die meisten Features von CUDA 6 auch auf Kepler, sonst würde Nvidia nicht mit ihrer Quadro K6000 werben. Was Allerdings nicht möglich wäre, ist dassn ein paar wichtige Implementierungen das Memory-Menagements mit alten Karten nicht funktioneren. Dies wird erst mit Maxwell eingeführt. Die neuen Karten enthalten dann die benötigte "Unified Memory"-Architektur.
Dann sag mal was die "unified Memory-Architektur" denn so ist, und was Kepler/Fermi denn nicht haben....

Die neuen Features von PhysX wie FlexWorks, Fire-/Smoke-Works sowie GI-Works laufen aber sicherlich auch auf älteren Karten.
Natürlich tun Sie das.

Anders als Skysnake vermutet hat Nvidia noch nie Funktionen von CUDA zurück gehalten. Nur wegen CUDA würde niemand neue Karten kaufen. Das ist eher ein Spezialgebiet von Microsoft. Die machen so etwas gerne wie man nur all zu gut weiß ;)
Sorry, aber du hast keine Ahnung was den GPGPU-Bereich anbelangt... Und insbesondere nicht, was nVidia anbelangt... nVidia verkauft natürlich über neue CUDA-Versionen neue Hardware. Allein das GPU-Direct2 nicht auf Fermi läuft wird so manche Karte verkauft haben.

Das kommt darauf an. Wenn ich mich nicht irre, greifen Geforce Experience und somit Shadowplay (Streaming) auf CUDA zurück. Das muss sich aber erst noch herausstellen. Bisher ist CUDA vorallem für die wissenschaftlichen Anwendungen interessant.
Das hat aber an sich nichts mit Grafik zu tun, und dem was der Normalanwender von CUDA sieht. Das sind Details in den Treiberuntiefen. Natürlich verwendet man da Sachen wieder, aber da kommt man als "normaler" Entwickler gar nicht dran, weil nVidia da total panisch rumeiert mit ihrem Sourcecode...

CUDA hat zwar ein paar Schnittstellen zu OpenGL/DX, aber an sich hat CUDA nichts aber auch rein gar nichts! mit Grafik zu tun. Man kann Berechnungen durchführen, die man auch in der Grafikpipeline verwendet, aber das wars dann auch.
 
Zurück