Kanst du so nicht sagen.
Es triffts eher so:
Für Leute, die schnelle GPGPU-Umsetzungen/Beschleunigung von bestehendem Code haben wollen ist es interessant. Damit reagiert man vor allem auf Intel mit XeonPhi.
Primär vereinfacht es die Programmierung für GPGPU-Anwendungen um ein Vielfaches. Es kostet nur evtl. minimal Performance für die automatische Übergabe des Memory-Managements, aber die Entwickler sparen viel Zeit und Aufwand.
Um ein Vielfaches ist übertrieben. Wenn man weiß, was man machen muss, ist es jetzt nichts, was einem um den Verstand bringt, sondern eher lästig ist. (Unified mem) Vor allem wäre ich aber SEHR vorsichtig bzgl Performanceaussagen. Das hängt immer ganz davon ab, was man denn macht. Man kann da auch schnell mal hohe zweistellige Prozentwerte an Performance verlieren je nach Problem. Da muss man schon aufpassen.
Die Drop-in Libs sind da schon eher interressant. Sie sind aber halt "nur" ein 1:1 Replacement. Das ist vor allem für Leute interessant, die bereits bestehenden CPU-Code haben. Wie performant das Replacement ist, muss sich aber auch noch zeigen. Sooo einfach ist das ja auch nicht. Die Probleme müssen ja groß genug sein, damit man überhaupt erstmal den PCI-E Overhead kompensieren kann. Wie immer bei der Arbeit mit dGPUs muss man daher sehr genau schauen, was man macht.
[quiote]
Ob die Änderungen auch auf Spiel zutreffen ist bisher unklar. Ich kann mir aber gut vorstellen, dass Teile davon stark in die neuen PhysX-Effekte integriert werden können.
[/quote]
Theoretisch kann man das in PhysX an sich implementieren. Neue Effekte wird es deswegen aber nicht geben! Man erhält nämlich an sich nichts, was nicht vorher auch schon ging. Man macht es den Anwendern nur etwas leichter die Sachen zu nutzen. Am PhysX Code an sich hat aber eh nur nVidia rumgespielt. Von daher ziemlich uninteressant. Zumal die eben die performanteste Implementierung wählen, und nicht die "Quick and Dirty"-Variante
Anders als AMD muss sich Nvidia dank des kürzlich vorgestellten G-Sync nicht all zu viele Gedanken um FPS machen. Solange die Voraussetzungen dafür erfüllt sind
-GPU mit Kepler oder besser
-G-Sync-Monitor
-Framerate > 30 FPS
Ist Nvidia wahrscheinlich immer besser aufgestellt.
Ähm... ja....
Es hat ja auch JEDER mit nVidia GPU nen G-Sync Monitor
G-Sync Monitore kosten aufgrund mehr Hardware ja auch nicht mehr Geld
und G-Sync kommt ja auch gar nicht erst Ende 2014...
Prinzipiell funktionieren die meisten Features von CUDA 6 auch auf Kepler, sonst würde Nvidia nicht mit ihrer Quadro K6000 werben. Was Allerdings nicht möglich wäre, ist dassn ein paar wichtige Implementierungen das Memory-Menagements mit alten Karten nicht funktioneren. Dies wird erst mit Maxwell eingeführt. Die neuen Karten enthalten dann die benötigte "Unified Memory"-Architektur.
Dann sag mal was die "unified Memory-Architektur" denn so ist, und was Kepler/Fermi denn nicht haben....
Die neuen Features von PhysX wie FlexWorks, Fire-/Smoke-Works sowie GI-Works laufen aber sicherlich auch auf älteren Karten.
Natürlich tun Sie das.
Anders als Skysnake vermutet hat Nvidia noch nie Funktionen von CUDA zurück gehalten. Nur wegen CUDA würde niemand neue Karten kaufen. Das ist eher ein Spezialgebiet von Microsoft. Die machen so etwas gerne wie man nur all zu gut weiß
Sorry, aber du hast keine Ahnung was den GPGPU-Bereich anbelangt... Und insbesondere nicht, was nVidia anbelangt... nVidia verkauft natürlich über neue CUDA-Versionen neue Hardware. Allein das GPU-Direct2 nicht auf Fermi läuft wird so manche Karte verkauft haben.
Das kommt darauf an. Wenn ich mich nicht irre, greifen Geforce Experience und somit Shadowplay (Streaming) auf CUDA zurück. Das muss sich aber erst noch herausstellen. Bisher ist CUDA vorallem für die wissenschaftlichen Anwendungen interessant.
Das hat aber an sich nichts mit Grafik zu tun, und dem was der Normalanwender von CUDA sieht. Das sind Details in den Treiberuntiefen. Natürlich verwendet man da Sachen wieder, aber da kommt man als "normaler" Entwickler gar nicht dran, weil nVidia da total panisch rumeiert mit ihrem Sourcecode...
CUDA hat zwar ein paar Schnittstellen zu OpenGL/DX, aber an sich hat CUDA nichts aber auch rein gar nichts! mit Grafik zu tun. Man kann Berechnungen durchführen, die man auch in der Grafikpipeline verwendet, aber das wars dann auch.