Mafia 2 mit GPU-PhysX: Interview mit Nvidia

Ok hab mich falsch Ausgedrückt, in "ferner" Zukunft wird wohl eh alles direkt über Open Cl gemacht werden denk ich zumindest und spätestens dann ist eine schicke Physikengine kein Alleinstellungsmerkmal mehr womit man groß Werbung machen kann aber stimmt schon das kann leider dauern.
 
Ich denke das Spiel kann man auch ohne PhysX geniessen. Gameplay wird da wahrscheinlich auch genug geboten sein. Aber eine GTX285 für PhysX? Ist ja so als würde man für den Bugatti ein Posche 6 Zylinder als Turbolader brauchen.

Albern und nicht der Rede wert. Warten wir auf die Tests.
 
Mich würde mal interessieren, wie niedrig die Frames auf meinen Phenom II X6 1090T mit meiner HD5870 1Gig sind, wenn ich PhysX voll anstelle, bei einer Auflösung von 1680x1050.
 
Lächerlich, wirklich lächerlich. Nvidia lebt, wo auch immer aber sicherlich nicht auf dem Planeten Erde. Um das Spiel dann auf "volle Elle" spielen zu können, natürlich inkl. 3D möchte man doch bitte gerne 3000€ auf den Tisch legen?!?! Darf´s sonst noch was sein Nvidia?
 
Na da muss man nicht alles auf Nvidia schieben. Ich denke die Entwickler haben bei den Codes und Bytes auch etwas schund luther getrieben. Wie so oft wird man das Spiel wahrscheinlich erst nach dem ersten oder zweiten Patch spielen können. Wär ja nicht das erste mal.

Zudem eine Portierung wie ich höre. Da sind die Codes so Optimal wie Hilten in Terminator 5.
 
2K Games sollte eventuell einfach mal ein Benchmarkvideo zu Mafia 2 raushauen, das zeigt,
wie die einzelnen PhysX Stufen (off/mid/high) laufen und vorallem wie es dann ausschaut.

Imo wird wieder viel geblubbert, wegen vermutlich garnichts und bringt ihnen eigentlich keine Punkte.

Naja imo, stören mich bei Mafia 2, ganz andere Punkte.
Zum einen Steamzwang :-S ... und zum anderen kein Multiplayer, obwohl schon bei ersten Teil der Ruf der Com war,
doch wenigstens Autorennen über LAN möglich zumachen.
Von Bandenkriegen oder Coop ganz zuschweigen ... naja.
 
Wo ist das Problem? Wenn das Game gut wird, sieht es selbst in 3 Jahren noch gut aus. Siehe Crysis. Soll 2K doch ein bisschen für die Zukunft entwickeln und ich freu mich mit jeder neuen Graka aufs neue das Game zu Zocken. Hauptsache 2K vergisst bei der ganzen Physik nicht den Rest des Games. Sonst wird hier immer über schwache Grafik gemeckert und im Nachhinein Mod's instaliert um kein Augenplack zu bekommen und jetzt nimmt Euch 2K die Arbeit ab. Dass sind in meinen Augen verkannte Genies ;)
MfG Smile
 
Zuletzt bearbeitet:
Wo ist das Problem? Wenn das Game gut wird, sieht es selbst in 3 Jahren noch gut aus. Siehe Crysis. Soll 2K doch ein bisschen für die Zukunft entwickeln und ich freu mich mit jeder neuen Graka aufs neue das Game zu Zocken. Hauptsache 2K vergisst bei der ganzen Physik nicht den Rest des Games. Sonst wird hier immer über schwache Grafik gemeckert und im Nachhinein Mod's instaliert um kein Augenplack zu bekommen und jetzt nimmt Euch 2K die Arbeit ab. Dass sind in meinen Augen verkannte Genies ;)
MfG Smile

Stimmt schon, bei Crysis haben am Anfang auch alle gejammert,
aber ich will auch RL-Benches / Beweise von dem Geblubber.
Falls das wirklich stimmt, dass nicht mal die derzeit schnellste Single GraKa ausreicht um in 1.9k x 1200 (16:10) flüssig zu spielen, müssen wir wohl alle erst noch auf richtig potente Hardware warten :ugly:
 

Wenn schon so offensichtlich in einem "Interview" Werbung betrieben wird, sollte man doch auch anstandshalber noch passende Einkaufsmöglichkeiten anzeigen. Aber der größte Witz ist eigentlich dieser Satz:

"Das PhysX-SDK unterstützt selbstverständlich Mehrkern-CPUs, aber deren Performance ist bisher noch nicht ausreichend für flüssige Bildraten mit sehr vielen interaktiven physikalisch berechneten Partikeln oder Stoffen..."

Ist doch mittlerweile kein Geheimniss mehr, dass Nvidias Physx auf veraltete Befehlssätze setzt und damit gewohlt das Potential von aktuellen CPU's nicht ansatzweise richtig ausnutzt - natürlich zum großen Vorteil für ihre GPU's...
 
Wir geben schlicht Nvidias Antworten wieder - jeder kann sich seine eigene Meinung bilden. Uns bitte also keinen Vorwurf machen.

Bezüglich PhysX auf der CPU: Die x87 und no-SSE-Sache war eine Techdemo von 2008 (Cryostasis). Metro 2033 oder Mafia II oder das kommende SDK 3.0 wären da weitaus spannender.
 
Zuletzt bearbeitet:
...
Aber der größte Witz ist eigentlich dieser Satz:
Das PhysX-SDK unterstützt selbstverständlich Mehrkern-CPUs, aber deren Performance ist bisher noch nicht ausreichend für flüssige Bildraten mit sehr vielen interaktiven physikalisch berechneten Partikeln oder Stoffen...
Ist doch mittlerweile kein Geheimniss mehr, dass Nvidias Physx auf veraltete Befehlssätze setzt und damit gewohlt das Potential von aktuellen CPU's nicht ansatzweise richtig ausnutzt - natürlich zum großen Vorteil für ihre GPU's...

Also, ich finde es ersteinmal gut, dass sie sich einen "Fehler" eingestehen. Sie sagen ja, dass es bisher noch nicht ausreichend performiert. Außerdem wollen sie mit dem neuen PhysX (SDK`?) MMX Befehle implementieren, oder zumindest die Performance steigern (wenn ich mich recht erinnere)...
Nja ich finde das aber Offtopic und gehört wohl eher ind den Fluch oder Segen Thread..

@topic: Hättet ja mal fragen können, wie es mit ATi Radeon User und deren Performance aussieht. :D

Edit: Marc hat das ja mit physx SDK sehr gut geklärt ;D
 
Zurück