Exklusiv-Interview: The Bureau: XCOM Declassified und die GPU-Physx-Effekten auf dem PC

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Exklusiv-Interview: The Bureau: XCOM Declassified und die GPU-Physx-Effekten auf dem PC

Am 23. August erscheint The Bureau: XCOM Declassified für den PC. Für unsere liebste Plattform haben sich die Entwickler ein paar Schmankerl einfallen lassen, unter anderem physikalische Berechnungen und neue Effekte per GPU-Physx. Wir stellen den Entwicklern einige Fragen zu dem Thema in diesem exklusiven Interview.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Exklusiv-Interview: The Bureau: XCOM Declassified und die GPU-Physx-Effekten auf dem PC
 
Und schon deswegen braucht kein Mensch die neuen AMD Karten! Weil selbst wenn schnell wirklich alles kann man nur mit einer Geforce darstellen.
 
Zitat -> Was meinen Sie zu dem Thema? Ist PhysX überflüssig oder eine sinnvolle Bereicherung?

Muss man eigentlich nicht drauf antworten aber ich tus trotzdem mal: Wenn PhysX ein gänzlich offener Standard wäre, wäre es sicherlich eine Bereicherung. Im momentanen Status Quo aber im Leben nicht !!!
 
Und schon deswegen braucht kein Mensch die neuen AMD Karten! Weil selbst wenn schnell wirklich alles kann man nur mit einer Geforce darstellen.

Du musst es ja Wissen da es ja sooo viele Spiele mit GPU Physik gibt. Das ist ein reines Marketing Produkt und wird sich nie durchsetzten solange es nicht offen ist. In vielen Spielen ist es auch wirklich schlecht implementiert so reduziert das Cloting der Passanten in Mafia 2 die FPs um über 50% und die relativ performante Zerstörung Physx kann nicht separat alleine aktiviert werden. Da muss man dann erst gewisse Files löschen. Außerdem ist auch möglich eine AMD Karte mit einer NV GPU für Physx zu koppeln.
 
Und schon deswegen braucht kein Mensch die neuen AMD Karten! Weil selbst wenn schnell wirklich alles kann man nur mit einer Geforce darstellen.

Es gibt wirklich nur ganze wenige Spiele, die GPU-berechnete PhysX-Effekte verwenden.
Lass dich nicht veräppeln, in diesen Previews wird dir immer der Mund wässrig geredet, es werden Features aufgebauscht, die angeblich ein "einmaliges Spielerlebnis" ermöglichen und auf technische Details verwiesen, die absolut neu und innovativ sein sollen.
Ich lese PCGH schon länger und das ist vor der Veröffentlichung jedes Games mit großem Marketing-Budget so. Spontan fällt mir gerade der Marketing-Hype zu Bioshock Infinite, Hitman Absolution und Mafia 2 ein.
Im Nachhinein betrachtet sind das alles gewöhnliche Games, die sich in die Reihe anderer Spiel einordnen und über die man im Nachhinein kaum noch liest. Es ist alles Marketing.
 
Bin da aber gänzlich anderer Meinung :daumen2:. Physx gehört abgeschafft und ein offener Standard wie Havok oder ähnliches forciert.

Jein. (GPU!)-PhysX gehört erst dann abgeschafft, wenn ein Ersatz da ist und auch benutzt wird. Das ist so wie wenn man sagen würde "DirectX gehört abgeschafft und ein offener Standard wie OpenGL forciert". Schaff von heute auf Morgen DirectX ab, und es gibt nichts, was sofort dafür übernehmen kann. In der Übergangsphase muss PhysX bleiben, sonst haben wir gar nichts. Es gibt Präsentationen und Techdemos von Havok@GPU, die sind über 6 Jahre alt. Seitdem hat sich überhaupt nichts getan, es gibt kein einziges Spiel damit, auch nicht mit Bullet@GPU. Bei soviel "Marktreife" und "Verbreitung" dieser Techniken bin ich froh, dass es PhysX gibt, das auch tatsächlich verwendet wird. Wenn die anderen ihren Arsch mal irgendwann endlich hochkriegen, dann und nur dann darf PhysX sterben.
 
Jein. (GPU!)-PhysX gehört erst dann abgeschafft, wenn ein Ersatz da ist und auch benutzt wird. Das ist so wie wenn man sagen würde "DirectX gehört abgeschafft und ein offener Standard wie OpenGL forciert". Schaff von heute auf Morgen DirectX ab, und es gibt nichts, was sofort dafür übernehmen kann. In der Übergangsphase muss PhysX bleiben, sonst haben wir gar nichts. Es gibt Präsentationen und Techdemos von Havok@GPU, die sind über 6 Jahre alt. Seitdem hat sich überhaupt nichts getan, es gibt kein einziges Spiel damit, auch nicht mit Bullet@GPU. Bei soviel "Marktreife" und "Verbreitung" dieser Techniken bin ich froh, dass es PhysX gibt, das auch tatsächlich verwendet wird. Wenn die anderen ihren Arsch mal irgendwann endlich hochkriegen, dann und nur dann darf PhysX sterben.

Open Physx wäre eine gute Sache.
Achja, und es gab erst im Zuge der PS4-Vorstellung ein neues GPU-Havok-Techvideo - das ist offenbar nicht völlig tot. Möglicherweise kommt da neues Leben rein mit den neuen Konsolen.
 
Der Rotz will einfach nicht verrecken.
Es wird Zeit, dass sich endlich eine herstellerunabhängige Lösung durchsetzt.
Wenn es eine brauchbare Konkurrenzlösung gäbe, würde sie auch sicher jeder einsetzen.

Jein. (GPU!)-PhysX gehört erst dann abgeschafft, wenn ein Ersatz da ist und auch benutzt wird. Das ist so wie wenn man sagen würde "DirectX gehört abgeschafft und ein offener Standard wie OpenGL forciert". Schaff von heute auf Morgen DirectX ab, und es gibt nichts, was sofort dafür übernehmen kann. In der Übergangsphase muss PhysX bleiben, sonst haben wir gar nichts. Es gibt Präsentationen und Techdemos von Havok@GPU, die sind über 6 Jahre alt. Seitdem hat sich überhaupt nichts getan, es gibt kein einziges Spiel damit, auch nicht mit Bullet@GPU. Bei soviel "Marktreife" und "Verbreitung" dieser Techniken bin ich froh, dass es PhysX gibt, das auch tatsächlich verwendet wird. Wenn die anderen ihren Arsch mal irgendwann endlich hochkriegen, dann und nur dann darf PhysX sterben.
/sign

Die Techdemos von Havok waren ja damals noch so Alpha/Beta Builds von Havok FX, was dann mit dem Einkauf von Intel seinen Sarg gefunden hat.
Jetzt hat Havok nach all den Jahren doch eine GPU-Pipeline implantiert, also Hoffnung naht.
Bullet 3.0 erreicht langsam seinen RC, also wird das auch langsam brauchbarer, auch wenn da sicherlich dennoch vieles fehlen wird.
 
Wenn die anderen ihren Arsch mal irgendwann endlich hochkriegen, dann und nur dann darf PhysX sterben.
Hältst du es für vorstellbar, dass jeder am Markt GPU-Physikberechnung brachliegen lassen würde, wenn Physx sterben würde?

Ich glaube, das Sterben von Physx hätte eher eine beschleunigende Wirkung. Heute gibt es mit Physx eine Lösung, die zwar gut ist, aber kaum verbreitet.
Heisst, wenn ein Entwickler Physx implementieren will, muss er dazu einen nicht unerheblichen Mehraufwand betreiben, um einem kleinen Teil der Kundschaft einen Mehrwert zu bieten.
In Zeiten von Massenmärkten und Kosteneffizienz nicht sonderlich erstrebenswert.

Umgekehrt zögert der Rest, weil das Etablieren einer neuen Lösung - insbesondere auf eigene Faust - vermutlich ebenfalls eine ziemlich teure Sache ist.

Ich sähe für eine branchenweit etablierte Physik-Lösung den Tod von Physx lieber schon heute als morgen, denn solange ein IHV wie Nvidia seine eigene Lösung durchdrücken will, sehe ich schwarz für einen einheitlichen Standard.
 
Braucht Ihr doch gar nicht diskutieren. Es ist nun mal so!

Wenn mich einer nach einem PC fragt wo er wenn er es denn will alle Spiele die es gibt mit allen Details (wenn auch nicht immer flüssig) spielen will dann ist die Antwort Nvidia! Da könnt Ihr labbern wie Ihr wollt es ist Tatsache das man mit AMD Karten nicht jedes Spiel was es für den PC gibt mit vollen Details spielen kann.

Es ist hierbei völlig irrelevant ob das nur ein geringer Prozent teil ist!
 
Zuletzt bearbeitet:
Hältst du es für vorstellbar, dass jeder am Markt GPU-Physikberechnung brachliegen lassen würde, wenn Physx sterben würde?

Ich glaube, das Sterben von Physx hätte eher eine beschleunigende Wirkung. Heute gibt es mit Physx eine Lösung, die zwar gut ist, aber kaum verbreitet.
Heisst, wenn ein Entwickler Physx implementieren will, muss er dazu einen nicht unerheblichen Mehraufwand betreiben, um einem kleinen Teil der Kundschaft einen Mehrwert zu bieten.
In Zeiten von Massenmärkten und Kosteneffizienz nicht sonderlich erstrebenswert.

Umgekehrt zögert der Rest, weil das Etablieren einer neuen Lösung - insbesondere auf eigene Faust - vermutlich ebenfalls eine ziemlich teure Sache ist.

Ich sähe für eine branchenweit etablierte Physik-Lösung den Tod von Physx lieber schon heute als morgen, denn solange ein IHV wie Nvidia seine eigene Lösung durchdrücken will, sehe ich schwarz für einen einheitlichen Standard.

Sehe ich nicht so. Gerade weil GPU-PhysX praktisch nicht relevant ist am Markt, dürften die Auswirkungen bzgl. der Adoption von anderen Technologien bei Null liegen.
Die bisherige Bremse waren die alten Konsolen, nicht PhysX.
 
Die neuen Konsolen werden GPU-Physx sicher auch nicht weiter fördern, for obvious reasons. ^^

Du hast mich wohl nicht richtig verstanden, denn offensichtlich sind hier Bullet und Co gemeint. Die haben wegen den alten Konsolen den Start noch nicht geschafft, weil die Hardware featuremäßig und von der Performance her nicht bereit dazu war. Jetzt ist sie es (vielleicht).
 
Braucht Ihr doch gar nicht diskutieren. Es ist nun mal so!

Wenn mich einer nach einem PC fragt wo er wenn er es denn will alle Spiele die es gibt mit allen Details (wenn auch nicht immer flüssig) spielen will dann ist die Antwort Nvidia! Da könnt Ihr labbern wie Ihr wollt es ist Tatsache das man mit AMD Karten nicht jedes Spiel was es für den PC gibt mit vollen Details spielen kann.

Es ist hierbei völlig irrelevant ob das nur ein geringer Prozent teil ist!

Könntest du uns das nochmal genau erklären? Ist das so wie Nvidia und nur Dx 11.0?
 
Ich muss zugeben ich steh auf Physik Spielereien in Games, ob das nun Physx heißt oder eben anders ist mir dabei egal, hauptsache Physik. Schon in HL2 hab ich mit der (buggie sprung-) Brücke rum gespielt und anderen Sachen die Physik beinhalteten. Wenn ich mir dann zb. BL2/PS2* so ansehe und immer wieder gerne hinschaue wenn irgendwo Partikel durch die Luft wirbeln muss ich ehrlich sagen möchte ich das nicht mehr missen. Das mag jeder anders empfinden oder für wichtig/unwichtig erachten, kann natürlich nur für mich reden und ich finds klasse!

Mir wäre es auch lieber Physx würde auf allen GPUs laufen da ich dadurch den Vorteil hätte wählen zu können zwischen AMD und Nvidia. So entscheide ich mich jedes mal wieder für Nvidia, bei mir funktioniert der Trick also anscheint. :daumen2:

Aus Performance sicht unterscheiden sich beide doch sowieso nie wirklich, mal ist AMD schneller mal Nvidia und das ändert sich auch noch jede Generation also nehme ich einfach die GPU die "mir" mehr bietet. Unfair gegenüber AMD, sehe ich auch so aber darauf verzichten möchte ich dann doch nicht :(

Das war meine Sicht auf die dinge! Hier in Kurzform: OpenPhysx? Ja bitte! Boykot NV?: ...ehm nein!

*Borderlands 2 / Planetside 2
 
Ich muss zugeben ich steh auf Physik Spielereien in Games, ob das nun Physx heißt oder eben anders ist mir dabei egal, hauptsache Physik. Schon in HL2 hab ich mit der (buggie sprung-) Brücke rum gespielt und anderen Sachen die Physik beinhalteten.
Das ^
Wenn ich mir dann zb. BL2/PS2* so ansehe und immer wieder gerne hinschaue wenn irgendwo Partikel durch die Luft wirbeln muss ich ehrlich sagen möchte ich das nicht mehr missen. Das mag jeder anders empfinden oder für wichtig/unwichtig erachten, kann natürlich nur für mich reden und ich finds klasse!
und das ^ sind nach wie vor zwei verschiedene Paar Schuhe - die wirklich relevante Physik wird auch bei Physx von der CPU berechnet.
 
Es sollte jeder für sich entscheiden, wie er GPU PhysX findet! Dieses ewige geflame darüber, ob's nun sinnvoll ist oder nicht ist einfach nur sinnfrei ;) Ich persönlich finde PhysX super und jeder sollte die Meinung des anderen respektieren. Trotzdem befürworte ich auch, dass PhysX ein offener Standard werden sollte, der nicht nur Nvidia Besitzern vorbehalten ist.
 
Zurück