Dark Void: Physx-Shooter im Test - GTX 260-216 als dedizierte Physx-Karte empfohlen

Hört doch mal auf zu meckern. Ich freue mich, dass mal wieder die Grenzen des Machbaren im Gaming erweitert werden. Ob es spielerisch hier Sinn macht - keine Ahnung. Aber jemand muß mal anfangen.
Das PhysX ein nvidia-only feature ist, ist doch klar. Allerdings kann man es auch mit einer Radeon Graka und nvidia "PhysX-Karte" einrichten.
Das mit so einer Auslegung Enthusiast-Gamers angesprochen werden, ist doch auch klar. Die ganzen Casual-Games nerven mich schon lange, hauptsache sie laufen auf jedem Komplett-PC...
Wem es nicht paßt soll doch auf der Konsole spielen, da gibt es kommunistische Hardware, alle sind gleich.
Auf dem PC war es schon immer so, dass Cutting-Edge Games beim Erscheinen noch nicht mal auf aktueller High-End Hardware mit allen Reglern auf MAX flüssig laufen. Dafür hat man zwei Jahre später auf neuer Hardware noch mal ein neues Spielerlebnis. Wenn ich da z.B. an die WingCommander-Serie zurückdenke... Ich glaube es war Teil 2 oder 3, das lief noch nicht mal auf einem 486DX2 66 mit 8MB RAM flüssig. Man brauchte wirklich einen Pentium und der hat damals noch so richtig Geld gekostet. Und mit RTCW hatte ich auch lange Spaß, irgendwann mit allen Reglern auf volle Pulle...
Also, keiner wird gezwungen aber wer will kann.
 
Effekte hin, Effekte her, aber ne GTX 260 allein für PhysX Berechnungen abzustellen, da will sich der Sinn bei mir nicht so recht zu erkennen geben.....
 
Effekte hin, Effekte her, aber ne GTX 260 allein für PhysX Berechnungen abzustellen, da will sich der Sinn bei mir nicht so recht zu erkennen geben.....

So wird die schlechte Programmierung umgangen.
Beim nächsten Shooter brauchste dann ne Fermi für PhysX und ne Fermi zum spielen. :ugly:
In meinen Augen ein Spiel, das die Welt nicht braucht.
 
Das war eine glatte Lüge und wenn man ein bisschen nachdenkt weiß man das auch (lies dir dazu eine News zu einem Interview von nem Mitarbeiter von ATI vor ein paar Tagen)
Außerdem ist die Schnittstelle immer noch von Nvidia entwickelt und optimiert, ATI wäre SELBST WENN es das Angebot gäbe, ziemlich dumm es zu nutzen.
Jeder Hersteller von Spielen würde es dann uneingeschränkt einsetzen, aber Nvidia würde es nur für die eignen Karten optimieren und natürlich nicht für ATI Karten, wodurch Nvidia dann, egal wie gut die AMD/ATI Karten sind, in jedem Benchmark gewinnen würde.
Sie nehmen ja jetzt schon nach und nach die CPU Unterstützung raus.

ALso verbreite hier keine Lügen und informier dich mal richtig

Dann solltest du mal die Augen aufmachen. AMD fördert Havok und die Open Source Engine Bullet. Ausserdem hielt es AMD nicht für unnötig, sondern eine proprietäre Technologie von nVidia zu lizenzieren, macht schlichtweg keinen Sinn und hätte mehr Nachteile als Vorteile für AMD gebracht.


Ich hab mich Informiert ;) - Ich denke nur ein wenig weiter wie Ihr.
Hätte ATI Physx lizensiert dann hätten sie es wenigstens als Feature.
Das Physx auf ATIs langsamer laufen würde, wäre ja klar und auch nicht weiter verwunderlich - tut mir leid aber so funktioniert Marktwirtschaft.
Physx wird nunmal von NV finanziell unterstützt. NV pumpt hier Geld hinein. Sie unterstützen die Entwickler mit ihrem Team nicht ATI!. Natürlich optimieren sie Physx dann für ihre Karten ist ja auch ihr Recht - denkt ihr ernsthaft , dass NV alles umsonst für ATI machen würde?. Es ist gut so, dass es nicht so ist dies zeigt das es zwei Konkurrenten sind die nicht zusammen arbeiten - sowas ist gut für den Markt.

Wie auch immer ATI hätte nicht so stur sein sollen, Physx lizensieren und gleichzeitig PARALLEL an einer Alternative arbeiten müssen - so hätten ATI User Physx welches sicherlich schneller laufen würde als auf CPUs. Aber nichts davon - Wo ist denn Havok wenn es um Dark Void geht? oder Batman oder wie ist es mit Metro 2033??? Bei Metro 2033 weiß doch ATI dass es Physx unterstützen wird warum schicken sie denn nicht irgendwelche Leute hin die den Entwicklern zeigen dass man das alles auch mit Havok machen könnte oder dx11!!! Aufwachen ATI!!! ATI verschläft hier ganz klar den Markt.
Nämlich nur wenn die Havok-Engine wirklich zeigt was sie kann und sie insgesamt besser abschneidet als Physx bei einem Spiel - erst dann wird Physx zurückgedrängt jedoch da sich ATI nicht bewegt und anscheinend glaubt oder eher hofft, dass die Entwickler von sich aus Havok / Dx11 implementieren , wird Physx bald keine Randerscheinung mehr sein.

Mir kommt es jedenfalls so vor als ob Physx als Physik-Engine sich durchsetzt und nicht Havok oder ne andere Engine. Das sieht man an den ganzen AAA-Titeln. Mit Batman haben sie sogar ein Spiel welches sehr gut abgeschnitten hat - sowas fördert diese Engine nur. Außerdem soll Physx auf Fermi Karten bei vielen Techdemos fast doppelt so schnell laufen. Insofern zeigt sich dass es immer attraktiver wird für Entwickler.
 
das nv ati angeboten hat, physx zu implementieren ist richtig, aber nv wollte auch die baupläne von den chips haben und da du ja so auf wirtschaftliche konkurenz stehst, ist auch dir klar warum sie das nich gemacht haben.
sie hätten ganz zufällig in der nächsten generation ein paar neuerungen eingeführt, die auch nur ganz zufällig an ati technicken erinnern :D

weiß jemand ob dark void die ageakarten noch unterstützt?
 
Schade das PhysX so eine hohe Anforderungen haben. Eine 260 als PhysX Karte so eine nutzte ich als Hauptkarte und alles läuft super gut. Ich hätte mehr gehofft.
 
Die Effekte hin oder her.
Manch einer ist bestimmt froh überhaupt eine 260-Gtx zum spielen zu
besitzen.
Jetzt nur die Karte für die Effekte ist Hardcore.
Dann sollen Sie (Entwickler/Publisher) dem Spiel die Karte beilegen.

Ich besitze eine 285Gtx. Hoffe das Spiel (Ob ich es mir dann kaufe, werden die finalen Tests zeigen), läuft mit der Hardware spielbar.

Hauptsache das Game ist nicht so programmiert, das der Quadcore Däumchen dreht und die extra dafür angeschaffte 260 qualmt.
Das macht dann auch keinen Sinn.
Naja doch. Für Nvidia. Finde ich dann aber irgendwie blöd.
Werde mir bestimmt keine 2te Graka kaufen nur für PhysX.
Oder ich hole mir die Fermi und die 285 macht die Effekte.
:hail:
Mein armes Netzteil...
 
das nv ati angeboten hat, physx zu implementieren ist richtig, aber nv wollte auch die baupläne von den chips haben und da du ja so auf wirtschaftliche konkurenz stehst, ist auch dir klar warum sie das nich gemacht haben.
sie hätten ganz zufällig in der nächsten generation ein paar neuerungen eingeführt, die auch nur ganz zufällig an ati technicken erinnern :D

weiß jemand ob dark void die ageakarten noch unterstützt?

Wenn dem so ist dann kann man natürlich den Schritt seitens ATI verstehen - trotzdem sollte ATI mal aufwachen und mal mehr tun hinsichtlich physik
 
Dann solltest du mal die Augen aufmachen. AMD fördert Havok und die Open Source Engine Bullet.

Havok unterstützen sie seit der ersten Hälfte des Jahrzehnts und von Bullet ist erst die Rede, seitdem alle die Hoffnung aufgegeben haben, dass bei Havok nochmal was bei rauskommt.

Ausserdem hielt es AMD nicht für unnötig, sondern eine proprietäre Technologie von nVidia zu lizenzieren, macht schlichtweg keinen Sinn und hätte mehr Nachteile als Vorteile für AMD gebracht.

Für AMD sicherlich - für AMD-Nutzer siehts aber anders aus.


Super Frage, würde mich auch interessieren.
Vielleicht auch gleich einen Test, wo man den Unterschied sieht zwsichen normalem X58-SLi und "Nvidia200 certified X58-SLi"

Da gibts vereinzelt Benchmarks online.
SLI via NF200 ist in erster Linie langsamer und die Boards sind teurer und verbrauchen mehr Strom.
Sind aber etwas besser für Triple-SLI geeignet.


@ ruyven_macaran
PCGH schrieb:
Ein HD-Video der Physx-Effekte folgt im Laufe des Tages.

Gibt es vielleicht auch mal einen direkten Vergleich der Optik, ...
;) (außerdem bevorzuge ich Standbilder)



Bei Metro 2033 weiß doch ATI dass es Physx unterstützen wird warum schicken sie denn nicht irgendwelche Leute hin die den Entwicklern zeigen dass man das alles auch mit Havok machen könnte

Weil es bis auf weiteres keine GPU-beschleunigte Variante von Havok gibt und die Fähigkeiten der CPU-Version so beschränkt sind, dass sich für den Entwickler wenige bis keine Vorteile gegenüber CPU-PhysX ergeben. Eine komplette zweite Engine macht aber ein bißchen zuviel Arbeit, um das mit "quasi das gleiche" zu rechtfertigen.
Da haben eher noch Compute Shader oder OpenCL eine Chance - aber da stellt sich dann das Problem mit der Hardware-Basis. (ist der OpenCL-Support bei ATI eigentlich besser, als der OpenGL-Support?)


Wenn dem so ist dann kann man natürlich den Schritt seitens ATI verstehen

Afaicr ist dem aber nicht so. Nvidia wollte "nur" Einblicke in die Treiber/Ansteuerung bekommen. Immer noch empfindliche Informationen - aber ich würde mich sehr wundern, wenn man den Großteil nicht ohnehin schon durch Analyse der Treiber herausgefunden hat und den Rest eher aus Stabilitätsgründen hätte wissen müssen.
Der Vorteil für AMD lag imho im Marketing: Hätte man Cuda@ATI erlaubt, wäre Firestream tot gewesen. Man hätte selbst aber keinen Einfluss auf die Schnittstellenentwicklung gehabt und sich somit in Abhängigkeit von Nvidia begeben und in Benchmarks hätte man mangels Möglichkeiten zur Optimierung einen klaren Nachteil gehabt. Beides hätte dem eigenen Absatz mehr geschadet, als die Nicht-Unterstützung einer ohnehin kaum genutzten Technik.
(Henne-Ei-Prinzip - nur dass man diesesmal Nutzen daraus gezogen hat, wenn auch zu lasten der Kunden)
 
Ich weiß noch das wir alle vor einem Jahr ungefähr behauptet haben, dass sich dedizierte PhysX Karten niemals durchsetzen werden, aber anscheinend geht der Trend genau dahin.

Ich werde mal abwarten, wie sich die Nvidia Treiber entwickeln, wenn sie als PhysX Karte neben einer ATI laufen werden, dann werde ich mir auch eine kleine NV gönnen um in den Genuss der PhysX zu kommen. Denn das ist die einzige MultiGPU Konstellation die auch wirklich was bringt.
 
ich werde mal abwarten, wie sich die Nvidia Treiber entwickeln, wenn sie als PhysX Karte neben einer ATI laufen werden, dann werde ich mir auch eine kleine NV gönnen um in den Genuss der PhysX zu kommen. Denn das ist die einzige MultiGPU Konstellation die auch wirklich was bringt.


Must nicht warten es geht mit XP und win7 ohne probleme
Habe Win7 64bit ne 5870 und ne gts250 paralel am laufen.
noch keine probleme gehabt.werde ma diese demo antesten und berichten wie es rennt oder kriecht :-)
 
Must nicht warten es geht mit XP und win7 ohne probleme
Habe Win7 64bit ne 5870 und ne gts250 paralel am laufen.
noch keine probleme gehabt.werde ma diese demo antesten und berichten wie es rennt oder kriecht :-)
soweit ich weiß wird physx auch unter win7 und xp deaktiviert, wenn man zusätzlich zur nvidia noch eine ati im rechner hat.
 
Also alles was Recht ist aber ich bau mir sicher keine dezitierte PhysX-Karte ein.
Eine aktuelle Graka sollte reichen um ein Game in schöner Optik und mit guten Effekten auf passabler Auflösung zu zocken. Wenn dem nicht so ist darf das Game gern im Regal stehen bleiben :D
 
Zurück