News Nvidias Art Gallery Demo: Gameplay-Physik auf der Grafikkarte dank Physx

Also ich möchte solch eine Zerstörungsorgie nicht in Spielen sehen. Mit geht das ja in Battlefield3 zum Teil schon zu weit, wenn einem jegliche Deckung weggeballert wird.
Man stelle sich ein gepflegtes UT-Match an auf einer Karte und mit den Effekten wie im 1. Video gezeigt - alle Spieler holzen munter drauf los, am Ende ist vom Level nichts mehr übrig, man hat freie Sicht von einem Ende zum anderen...

Was mir aufgefallen ist (ebenfalls 1. Video): Zwar konnte das fallende Bild noch im fallen weiter zerlegt werden, andere Trümmerstücke zeigten sich aber von weiterem Beschuß - auch im Fallen - aber unbeeindruckt und "verschluckten" die Raketen. Macht es bei Allem Realismus wieder etwas unrealistischer.
 
Also ich möchte solch eine Zerstörungsorgie nicht in Spielen sehen. Mit geht das ja in Battlefield3 zum Teil schon zu weit, wenn einem jegliche Deckung weggeballert wird.
Man stelle sich ein gepflegtes UT-Match an auf einer Karte und mit den Effekten wie im 1. Video gezeigt - alle Spieler holzen munter drauf los, am Ende ist vom Level nichts mehr übrig, man hat freie Sicht von einem Ende zum anderen...

Was mir aufgefallen ist (ebenfalls 1. Video): Zwar konnte das fallende Bild noch im fallen weiter zerlegt werden, andere Trümmerstücke zeigten sich aber von weiterem Beschuß - auch im Fallen - aber unbeeindruckt und "verschluckten" die Raketen. Macht es bei Allem Realismus wieder etwas unrealistischer.

Das liegt daran, dass die splitter precalc sind. sprich die objekte sind eigentlich schon kaputt.
 
@X-CosmicBlue
Also zum ersten teil:
Ich denke das kommt schon drauf an, wie man das umsetzt. Das Deckungen weggeschossen werden usw. finde ich sher gut. Ist auch nur logisch und die Spieler müssen sich schon etwas geschickter mit ihren angriffen anstellen als stupides vor laufen und abholzen. Zumal es den Umstand unterstützt, das keine Sanis in deckung liegen und einer mit dem M60 alles umheizt und geheilt wird.
Ich fände es durchaus interessant, beispielsweise in Spielen, die nicht mal SLI oder Crossfire können, wie GTA4, sachen wie Autos mittels Physix, oder eben Gebäudewände usw. zu zerlegen. Es muss ja nicht das ganze Haus einstürzen, aber man kann wesentlich mehr als man derzeit will/die wahl hat.

Zum Zweiten:
Richtig, aber ich denke das würde ggf. auch sehr in die Rechenleistung gehen wenn man die Trümmer in immer kleinere Stücke zerballert. Cinema 4D is n Beispiel, wenns zu viele kleine Stücke werden. Da geht der Rechner erst mal auf Tauchstation.
 
Intel hat ja auch starkes Interesse daran, seine CPUs zu pushen. Warum da Havok auf die schwache eigene GPU oder auf die der Konkurrenz heben?

Ich will auch keine solche Zerstörungsorgien. Das ist unrealistisch. Man sollte dem Spieler halt keine Tausend Raketen in die Hand drücken. Nimm ein "normales" Waffenarsenal, damit kannste nicht wirklich viel zerlegen an Infrastruktur. Ich fänd ja schon toll, wenn man verschlossene Türen aufschießen könnte, wenn Einrichtung nicht unkaputtbar wäre und eine Granate auch wirklich einen kleinen Krater im Boden hinterlässt. Das alles bringt aber neue Herausforderungen beim Gamedesign und bei der Contententwicklung mit. Man stelle sich vor, man könnte in GTA 5 jede Tür aufschießen. Wie lange dauert es, jegliche Innenräume auszumodellieren? Das Spiel kostet 500 Euro und erscheint nach 10 Jahren Entwicklungszeit...

Btw, SLI läuft in GTA 4 prima :)
 
Seit wann gehört Havok zu Intel?
GTA 4 konnte noch nie wirklich SLI. Es läuft ja, aber eben nicht perfekt. Wurde schließlich nie drauf Programmiert. Ist im Grunde wie Arma 2. Ne GPU Auslastung von 40% im SLI und ne Single Karte macht ihre 80-90% Auslastung.
 
Da geb ich dir recht boxleitnerb aber auch an Intel sollte die steigende bedeutung der GPUs zu berechnung nicht grafischer Inhalte bewusst sein.
 
Seit wann gehört Havok zu Intel?
GTA 4 konnte noch nie wirklich SLI. Es läuft ja, aber eben nicht perfekt. Wurde schließlich nie drauf Programmiert. Ist im Grunde wie Arma 2. Ne GPU Auslastung von 40% im SLI und ne Single Karte macht ihre 80-90% Auslastung.

Intel hat Havok übernommen, und das nicht erst gestern.
Ich hab eine GPU Auslastung von 95+% mit zwei GTX580ern in GTA 4. Man darf halt nicht im CPU-Limit zocken und sich dann wundern, dass es nix bringt. Es gibt auch verbesserte SLI-Bits für GTA 4, schau dazu mal in meinem Thread im 3DC.
3DCenter Forum - SLI - Kompatibilitätsbits - Sammelthread

Dass Physik auf GPUs läuft, sehe ich mit einem lachenden und einem weinenden Auge. Einerseits ist die Rohleistung einfach viel höher auf der GPU. Andererseits - muss man die GPU noch mehr vollstopfen mit Arbeit? Ja, Konsolenports...aber bei solchen Spielen erwarte ich auch keine tolle GPU-Physik. Man stelle sich BF3 mit GPU-Physik vor, was die fps gleich mal um 50% senkt. Prost Mahlzeit.
 

Bereits im vorpost korrigiert;)

Intel hat Havok übernommen, und das nicht erst gestern.
Ich hab eine GPU Auslastung von 95+% mit zwei GTX580ern in GTA 4. Man darf halt nicht im CPU-Limit zocken und sich dann wundern, dass es nix bringt. Es gibt auch verbesserte SLI-Bits für GTA 4, schau dazu mal in meinem Thread im 3DC.
3DCenter Forum - SLI - Kompatibilitätsbits - Sammelthread

Dass Physik auf GPUs läuft, sehe ich mit einem lachenden und einem weinenden Auge. Einerseits ist die Rohleistung einfach viel höher auf der GPU. Andererseits - muss man die GPU noch mehr vollstopfen mit Arbeit? Ja, Konsolenports...aber bei solchen Spielen erwarte ich auch keine tolle GPU-Physik. Man stelle sich BF3 mit GPU-Physik vor, was die fps gleich mal um 50% senkt. Prost Mahlzeit.

Ich zock mit nem i7 auf 4200 mhz... so am rande.... GTA4 wurde denoch nicht auf SLI/Crossfire geschrieben... Bei nem Kollegen läufts durchaus besser mit einer als mit zwei karten... Daran lässt sich nun mal nicht drehen. Und unter SLI ist es auch nur Spielbar mit V-Synch. Wenns die Engine nicht kann, kann mans dazu zwingen, die Leistung ist aber nicht die Selbe. Mein GTX 570 SLI rangieren auch bei 95% rum.

Zurück zum Thema:

Klar, die sache ist aber, man könnte. Und ich weis nicht was jeder dauernd mit nem Total zerballertem spiel hat. Man könnte details damit bestücken, Kleinigkeiten die aber großen Spielerischen Einfluss oder halt vom Erlebnis her haben. Aber die CPU damit zu befeuern ist weit aus sinnloser.
 
Zuletzt bearbeitet von einem Moderator:
Ob es dafür optimiert wurde oder nicht, ist doch Jacke wie Hose. Ich spiele in 3840x3072, da ist die Skalierung in den Außenbereichen, wo man sich zu 98% der Zeit aufhält, hervorragend und meine CPU (i7@4300) nicht im geringsten bremsend.
Mit den Originalbits geht da wirklich (fast) nix, aber mit den verbesserten gehts ab.
 
Ob es dafür optimiert wurde oder nicht, ist doch Jacke wie Hose. Ich spiele in 3840x3072, da ist die Skalierung in den Außenbereichen, wo man sich zu 98% der Zeit aufhält, hervorragend und meine CPU (i7@4300) nicht im geringsten bremsend.
Mit den Originalbits geht da wirklich (fast) nix, aber mit den verbesserten gehts ab.

Ich werds mir ansehen... jacke wie Hose ist das sicher 100% nicht ^^. Wir weichen vom Thema ab.

PS: Mein i7 wirkt nicht mal mit Stock bremsend. Egal in welchem Game auf meiner Platte.
 
Es war mal Havok FX angedacht, ja. Aber seit Intel Havok gekauft hat und NV Ageia ist das ziemlich tot.

Jup, gelesen, ich muss zugeben, ich hatte mich mit Havok nie wirklich beschäftigt, weshalb mir das auch peinlicher weise entgangen ist.

Wollt ihr nicht sowas Schreiben?:ugly: Die PCGH-Engine ??:D

Schade eigentlich... Die Gamer sind halt dann die benachteiligten...
 
Wollt ihr nicht sowas Schreiben?:ugly: Die PCGH-Engine ??:D

Schade eigentlich... Die Gamer sind halt dann die benachteiligten...

Das wäre cool, schade das ich nicht programmieren kann. Würde mich auch interessieren wie man das lösen kann.

Ja das sind wir, zumindestens immer in etwa 50% da ja auch nicht alle nv karten physX zufriedenstellend neben der grafik darstellen können.
 
Es geht ja gerade darum, es per GPU zu machen :ugly: PhysX kann das per CPU auch schon seit Jahren ...

Genau, so schnell wie ein Porsche....auf einem Rad [kein multithreading] (mit angezogener Handbremse [benutzt mmx]). So viel zum Thema Neutralität, sehr interessant zu lesen.
WIR WOLLEN KEIN PROPRIETÄREN MIST, DER EXTRA SABOTIERT IST DAMIT ES NUR AUF NVIDIA GPUS RICHTIG LÄUFT MANNNNNN!
 
Das 3.0 SKD bietet Multithreading von Haus, bei der Version 2.8.x muss es der Dev halt manuell flaggen und extra sabotiert wird da gar nichts.
 
Das 3.0 SKD bietet Multithreading von Haus, bei der Version 2.8.x muss es der Dev halt manuell flaggen und extra sabotiert wird da gar nichts.

Zur Erinnerung:
http://extreme.pcgameshardware.de/u...ichtlich-die-physx-performance-fuer-cpus.html

UND:

Arstechnicahaben Nvidia direkt auf die fragliche Programmierentscheidungen angesprochen. Wie hier und auch anderweitig spekuliert stammt der Code noch direkt von Ageia und sei seitdem nur weiterentwickelt aber eben nie wirklich neu kompiliert worden. Nvidia fühlt sich offenbar nicht wenig auf den Schlips getreten und betont, man fühle sich nicht allein verantwortlich für die geringe Performance, denn die Spieleentwickler würden ebenfalls nur auf x87 hin kompilieren lassen.

Die Begründung klingt allerdings merkwürdig: Viele Spiele seien Portierungen von Konsolen, die dann auf den PC übernommen werden. Der Schwerpunkt vieler Entwickler liege auf der Konsole, die im Allgemeinen mehr Aufwand erfordere. "The game content runs better on a PC than it does on a console, and that has been good enough" erklärt Mike Skolones, der Produktmanager für PhysX. Die Spieleentwickler sähen also schlicht keine Notwendigkeit, einen moderneren Code zu generieren, da der PC ohnehin schon schneller als die Konsole sei und PhysX-Spiele daher „ausreichend schnell“ liefen. Das erklärt immer noch nicht, warum beim Neukompilieren, was beim Portieren ohnehin anfällt, nicht eben frischerer Code generiert wird. Der Aufwand für SIMD wäre minimal.

Doch warum bei PhysX selbst x87-Code beibehalten, wenn man mit einem Compilerflag performanteren Code bekommen könnte? Eine weitere interessante Antwort: Der „uralte“ Ageia-Code sei an vielen Stellen so schlecht und enthalte noch so viele andere Flaschenhälse und Baustellen, dass die SSE-Optimierung kaum ins Gewicht gefallen wäre. Das darf nun jeder Leser selbst bewerten.

Die gute Nachricht: Nvidia arbeitet derzeit an Version 3.0 der PhysX-API. Diese soll dann auch SSE-Unterstützung erhalten. Zu Multi-Threading gibt es keine Aussagen, aber darauf sollte man wohl besser nicht hoffen. Aber:

“The 3.0 release will use SSE scalar at the very least, and they may do some vectorization if they can devote the engineering resources to it.”

Source: Nvidia bremst PhysX auf der CPU aus [Update]

Macht euch das vor was ihr wollt, sorry. Batman und Mafia 2 haben es ja gezeigt das hier dumme Spiele laufen....
 
Das Video ist toll. Aber man sieht auch das PhysX noch nicht perfekt ist. Zum Ende hin schiest der Typ sehr oft auf die Holzplanken, und die bleiben stehen. Wenn ich mit so einer starken Waffe rumschiese muß noch viel mehr kaputt gehen. Auch der Stahl im Beton würde sich vermutlich in echt verbiegen.

Es ist zwar toll was heutzutage geht, aber es ist noch ein weiter Weg bis wirklich alles Physikalisch korrekt ist.
 
Zurück