Mit ATI und nVidia zusammen PhysX nutzen (Anleitung) * Neu All in one driver AMD+NV incl.*

@INU.ID PhysX läuft immer noch nur auf NV.
Da kann man eine NV, ohne Stromanschluss kaufen, bei nicht benutzen, geht diese so, wie so in den Standby.
Der Vorteil bei 2 GPUs, echte DX12 Games, können alle GPUs nutzen.
Beispiel: Ashes of the Singularity kann Multi-GPU mit Cross-Funktion.
Daher, hat dieses auch seinen Vorteil.
Leider sind 99% der Spieleentwickler zu geizig, Blöd oder ...... , warum sie das nicht intrigieren, denn viele PCs habe MultiGPU, wie Intel+iGPU+dGPU und bei AMD bald auch so.
Was für eine Spiele noch mal Performance bringen würde.
Weiterer Vorteil bei Multimonitor, kann die NV den 2. Moni bedienen, dabei hat die AMD-GPU mehr Leistung.
 
Man hat von einer zweiten Grafikkarte, als PhysX-Beschleuniger, immer einen Gewinn.
Selbst dann, wenn die Hauptkarte eine NVidia ist.

Der Bericht ist zwar auch nicht mehr aktuell, aber am Grundprinzip dürfte sich selbst bei heutigen GraKas & Spielen, nichts geändert haben.

Hier ein Beispiel:
Eine GTX-Titan ohne zweite NVidia-GraKa, mit ihrem PhysX-Beschleuniger, kommt bei dem Spiel "Assassin Creed 4" mit hoher PhysX-Einstellung auf max. 33,1 FPS.
Mit einer GT-640 als PhysX-Beschleuniger, auf 43,2 FPS !

Man hat also nicht nur etwas von dem aktivierten PhysX im Spiel etwas, sondern auch die Leistung der Hauptkarte wird gesteigert, da diese PhysX nicht mehr mit berechnen muss und durch die zweite Karte entlastet wird.

2022-09-26_20-00-40.png


Quelle:

Spiele, wie Metro2033 /Last Light, etc., Witcher3, und Assassin Creed, nutzen ebenfalls PhysX.
Wie es bei ganz neuen Spielen aussieht, ist mir überwiegend unbekannt, aber werde ich in Zukunft mal drauf achten.

Das neue Horror-Shooter-Game "SCORN" soll angeblich PhysX unterstützen.
Jedenfalls soll es da ein entsprechendes Verzeichnis geben: /Engine/Binaries/ThirdParty/PhysX
Ich liebe die Alien-Filme, und auch das Game "SCORN" nutzt "H.R.Gigers" Einfallsreichtum.



Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Und wenn es so ist, wie @Gordon-1979 schreibt, dass die PhysX-Karte bei Inaktivität in den Standby geht, kann man sie, bezüglich Stromverbrauch, auch im PC belassen.
 
Zuletzt bearbeitet:
Letzte PhysX Update ist 2021.10.15 ,laut NV.
So weis ich weis, ist PhysX 5 Engine auf dem weg, Release, muss man abwarten.
Aktuelle Games sind Metor Exodus, Mount & Blade II: Bannerlord , Assassin's Creed Origins.
Viele Entwickler bleiben PhysX treu, da es sehr viel kann und dann nicht zu lasten der CPU.
 
hier gehts weiter mit dem coolen treiber für amd grafik mit physx durch ne kleine nvidiakarte?
coole sache vorallem da die 6800xt oder 6900er relativ günstig sind und leicht schneller als meine 1080ti
 
Macht es überhaupt noch Sinn sowas auf GPU auszuführen in einer Zeit wo CPU´s immer mehr Kerne und auch die Leistung inklusive HT/SMT haben?

Die Entwickler bekommen es immer noch nicht richtig gebacken CPU´s mit mehr als 4 Kerne richtig aufzulasten.
Wir laufen immer noch in einen CPU Limit weil die Spiele nicht richtig gut auf Multicores optimiert werden, wir rüsten auf weil wir unsere Performance aus der Single Core Leistung holen.
Es mach einfach mehr sinn das PhysX auf CPU laufen zu lassen z.b über SS4 oder AVX Beschleunigung.
Gerade bei den 8-16 Core CPU`s ist noch viel Luft nach oben, geschweige denn die Intel Efficiency Cores die man locker damit bearbeiten kann mit HT Beschleunigung.
Die Grafikkarte sollte sich komplett auf dem Bild konzentrieren inklusive Raytracing.
 
Das wird auch nie funktionieren da directx immer auf einen kern die gpu ausführen kann das ist kernel bedingt.
Andere api bauen auch darauf auf.
man kann lediglich sachen parallel laufen lassen was die cpu mit mehr Kernen den einen Kern die Arbeit erleichtert und da gilt je weniger ein kern mit was anderem beschäftigt ist als drawcalls zu bearbeiten desto mehr profitiert man vom Takt und wird schneller.
Die Spiel engines sind also primär dafür verantowrtlich das mehr cpu kerne die Leistung erhöht am Grund ändert das nix ein kern muss sehr hoch Takten.
und nur dann gewinnt man mehr Leistung bzw gpu load.
nvidia setzt dafür ne workerthread ein der spiele in einen wrapper auf dx10 basis setzt quasi wird dx9 emuliert bzw noch ältere api.
amd verzichtet darauf und rechnet nativ in dx9 und co darum haben amd gpu öfter bei alten games ein höheres cpu limit als nvidia dafür ist nvidia bei neuen games ein höheres cpu limit weil eben diese mehr drawcalls fordert.
 
Macht es überhaupt noch Sinn sowas auf GPU auszuführen in einer Zeit wo CPU´s immer mehr Kerne und auch die Leistung inklusive HT/SMT haben?

Die Entwickler bekommen es immer noch nicht richtig gebacken CPU´s mit mehr als 4 Kerne richtig aufzulasten.
Wir laufen immer noch in einen CPU Limit weil die Spiele nicht richtig gut auf Multicores optimiert werden, wir rüsten auf weil wir unsere Performance aus der Single Core Leistung holen.
Es mach einfach mehr sinn das PhysX auf CPU laufen zu lassen z.b über SS4 oder AVX Beschleunigung.
Gerade bei den 8-16 Core CPU`s ist noch viel Luft nach oben, geschweige denn die Intel Efficiency Cores die man locker damit bearbeiten kann mit HT Beschleunigung.
Die Grafikkarte sollte sich komplett auf dem Bild konzentrieren inklusive Raytracing.
Also, wie ich schon sehr oft geschrieben habe.
z.B. meine 1080ti hat 3584 Kerne, was willst du da mit 4 oder 8 Kerne.
Selbst eine GT 640 mit 384 Kernen, ist bei PhysX total überfordert.
Da wäre ein AMD oder Intel 64 Kerner, an der Kotz-Grenze und eine Ruckelorgie ( 1-5 FPS ) wäre das Spiel.
Und Raytracing ist für mich FAIL. (aber das ist ein anderes Thema)
 
Wieviele aktuelle AA/A Spiele machen bisher von PhysX Gebrauch?
Das letzte Game wo ich mich daran erinnern kann war Batman.
Das die Beschleunigung über die Grafikkarte mit ihren dazugehörigen PhysX Bibliothek auf GPU’s optimiert und nicht auf CPU steht außer Frage was wohl besser beschleunigt.
Aber wie sieht es aus wenn es ein offener Standart wäre wo die API/SDK teilweise auf CPU optimiert ist? Die PS4 hat mit ihre Grotten CPU/GPU komplizierte Partikel/Physikberechnung durchgeführt über die CPU.
Siehe God of War 1+2, Infamous & Co und das ist schon mehr als nur paar bling bling Effekte.
Zwar nicht die erste Güteklasse wie einst Crysis das für mich immer noch Referenz ist, aber es ist möglich und es ist recht aufwändig und komplex gemacht.
Wir reden hier von einer CPU die richtig Ultra Ultra langsam ist selbst im Jahr 2012/13 wo es erschienen ist!
Du brauchst kein PhysX mit extra GPU für sowas, es hat schon sein Grund das niemand mehr diese Bibliothek aktiv nutzt, du brauchst nur gescheite Entwickler und eine saubere API & SDK die sehr nah auf der Hardware läuft und performant genug ist und da spielt Sony in Champions League.
 
Zuletzt bearbeitet:
@ICEMAN_FX
PS ist kein Windows und God of War hat kein PhysX.
Das sind die großen Punkte, die den Vergleich sinnlos machen.
Alleine das PS, Linux benutzt , macht es noch fragwürdiger.
Es gibt x-Physik Engine, die auch das gleiche/ähnliche können, wie PhysX.
PhysX ist nicht open Source, da trägt nV schon dazu bei.
 
@ICEMAN_FX
PS ist kein Windows und God of War hat kein PhysX.
Das sind die großen Punkte, die den Vergleich sinnlos machen.
Alleine das PS, Linux benutzt , macht es noch fragwürdiger.
Es gibt x-Physik Engine, die auch das gleiche/ähnliche können, wie PhysX.
PhysX ist nicht open Source, da trägt nV schon dazu bei.
Das ist mir schon bewusst, mir ging es nur darum das PhysX einfach überholt ist, und die Entwickler eigene Physik Berechnungen durch ihre eigene Bibliothek ausführen oder einen offenen Standard benutzen.
Ich hab selber eine PS5 und ein PC mit nVidia RTX 4090 von Gainward trotzdem hoffe ich das PhysX stirbt!
 
Nein PhysX stirbt nicht.
PhysX wird immer weiter verbessert.
Ja wenn überhaupt als allgemeine Beschleunigung die über Software auf der CPU läuft.
Wenn nVidia endlich PhysX mal auf CPU Multithread mit SMT laufen würde hättest du eine ganz andere Performance.
Es würde schon reichen wenn nVidia sich das dazu entschließt die CPU Multithread +SMT oder die iGPU von Intel/AMDF die Berechnung machen lassen würde wären schon vielen geholfen . Eine Intel UHD 770 iGPU hat knapp 1 TF sie würde z.b mehr als ausreichen.
 
@ICEMAN_FX du versteht es nicht. Dein kleine Intel CPU selbst mit 8 GHz, kann eine GT 610 nicht das Wasser reichen.
Mach mal Video-Bearbeitung mit CPU und dann mit GPU.
Die GPU lacht die CPU aus, die macht das im Bruchteil der Zeit.
Selbst die GT610 hat 3x mehr Kerne als deine CPU.
PhysX-SDK ist kein Open Source und wird es nie werden.
 
Ich habe seit langer Zeit mal wieder eine AMD GPU verbaut und spiele gerne mal die Batman Teile. Hatte gemerkt das mit PhysX aktiv das Spiel jetzt ziemlich schlecht läuft. Kann ich bei Windows 11 die alte GPU, eine GTX 1060, einfach so einbauen und für PhysX nutzen? Oder braucht man da noch die hier erwähnten Treiber Sachen?
Schonmal danke für eine Antwort.
 
Ich zitiere mal Gordon.

Dank DX12 bedarf es keiner speziellen Treiber mehr. Du baust die GTX 1060 ein, installierst einen aktuellen Treiber, und das Ganze sollte laufen.



@pagani-s

Den Treiber muss ich nicht mehr Modden, da AMD und nVidia Treiber dank DX12, zusammen laufen.
Daher gibt es keine großen Einschränkung mehr.
Alles was die Treiber unterstützen, kann man verbauen.
 
Ich zitiere mal Gordon.

Dank DX12 bedarf es keiner speziellen Treiber mehr. Du baust die GTX 1060 ein, installierst einen aktuellen Treiber, und das Ganze sollte laufen.
Ob das wegen DX12 an sich so ist waage ich ja mal zu bezweifeln, das Windows und die Treiber müssen da funktionieren halt.
DX12 ist bloss eine API womit ein Spiel dann mal läuft, es sei denn das ganze Windows läuft grafikseitig nun bei Windows 10 und 11 auch über die DX12-API

Da kommen mir aber wo ich grad diesen Thread hier sehe, Szenarien mit gewissen "Kärtchen" in meinem Zweitrechner in den Sinn, also auch Nvidia+Nvidia
Solang bei einem nicht-SLi/Crossover Board die Lanes für ne zweite, quasi PhysX Karte dann nicht grossartig im Wege sind

Gruss Dennis
 
Wenn Gordon schreibt, dass er dank DX12, welche ja den Mischbetrieb erlaubt keine Treiber mehr modifizieren muss, was ja vorher jahrelang nötig war, dann wird das schon Hand und Fuß haben.
 
Wenn Gordon schreibt, dass er dank DX12, welche ja den Mischbetrieb erlaubt keine Treiber mehr modifizieren muss, was ja vorher jahrelang nötig war, dann wird das schon Hand und Fuß haben.
Was die Games angeht, save
Aber auch ältere Games sind eben keine DX12-API Games und dann/nun ?

Gruss Dennis
 
LOL was geht hier denn ab.
Also wer es anzweifelt:
Dual GPU Setup mit Win10/11 installieren und einrichten.
Ashes of the Singularity Benchmark starten und Staunen!

@ Dennis50300, zweifle nichts an, was ich schon getestet habe.
Altes Spiel: Dual GPU Setup mit Win10/11 + Mafia 2, funktioniert
Ist ein PhysX-Game mit vollen-Hardware-Support.
 
Zurück