Dark Void: Physx-Shooter im Test - GTX 260-216 als dedizierte Physx-Karte empfohlen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Dark Void: Physx-Shooter im Test - GTX 260-216 als dedizierte Physx-Karte empfohlen gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Dark Void: Physx-Shooter im Test - GTX 260-216 als dedizierte Physx-Karte empfohlen
 
Zu schade, das es vom gt200b (also auch GTX260 -216) nur noch Restbestände gibt. In vielen Shops sind die Karten garnicht mehr zu bekommen.
Irgendwie schießt sich Nvidia da selbst ins Bein. Sie machen mit PhysX Werbung für ihre Karten, können aber keine liefern. Der Aussage, dass Nvidia lediglich zu wenig Chips bestellt hat glaube ich auch nicht ganz. Dann hätten sie inzwischen schon längst die Bestellungen wieder aufgestockt.
Die Verfügbarkeit wurde aber immer immer schlechter. Inzwischen sind die Karten fast garnicht mehr zu bekommen. Ich habe eher den Eindruck, dass Nvidia schon seit 2-3 Monaten garnicht mehr produzieren lässt.

PhysX an sich find ich aber gut. Ich denke aber, dass GPU-Physik erst wirklich umfassend eingesetzt wird, wenn AMD und Nvidia die selbe Schnittstelle unterstützen. Leider lässt Nvidia AMD PhysX ja nicht nutzen. Das wäre ein großer Gewinn für alle. Vor Allem aber für uns Gamer!
 
"In Capcoms Dark Void verkörpern Sie Will, der im Zweiten Weltkrieg eine Bruchlandung im Bermudadreieck hinlegt und sich - Überraschung - wenig später mit roboterähnlichen Aliens auseinandersetzen muss. Im Kampf vertraut er auf ein Jetpack (dessen Entwickler lustigerweise Tesla heißt) und diverse gewöhnliche und außergewöhnliche Waffen."

Roboter-Aliens und Jetpack! :haha: Mein Gott Walter... was kommt denn als nächstes? Nazikommunisten mit Laserpistolen? :ugly: Nein wirklich, das klingt mehr nach Parodie, als nach ernsthaftem Spiel. Und eine GTX 260 als PhysX Beschleuniger=Pflicht? Ich darf doch sehr bitten... :nene:
 
PhysX hin oder her, ich hab den Mist in Spielen eh immer irgendwie aus, weil ich die paar Effekte da jetzt nicht so berauschend finde, so das ich die dann auch nicht brauch! Da habe ich dann lieber so nochmal paar mehr Fps!

Finde die PhysX Technik eh quark, so etwas hätte man auch komplett mit in die GPU integrieren können so wie andere Sachen auch!
Ist zwar noch ein Überbleibsel von Ageia, aber trotzdem!
 
Naja so ganz unwichtig finde ich das Feature nicht - man muss es nur richtig in Spielen einsetzen - ganz besonders das ist cool NVIDIA APEX Turbulence
Mal sehen wie das bei Dark Void aussieht.

ATI hatte übrigens die Chance auf den Physx-Zug aufzusteigen - haben sie nicht gemacht da sie es für unnötig hielten - gut wie sie wollen jedoch sollten sie dann mal eine Alternative zeigen UND die auch fördern. Ich sehe nämlich noch garnichts seitens ATI.
 
Physx ist meiner Meinung nach echt zur Techdemo verkommen. Auf ATis läufts gar nicht, auf Nvidias oft genug im unspielbaren Bereich, Batman läuft bei nem Kumpel mit ner 8800 GTS / 640 und ner 9500 GT (oder so) auch nicht über 15 FPS.
Wenn man wenigstens ne ATi Karte zum Rendern und Nvidia zur Physx-Berechnung nehmen könnte ... aber ne, da hat Nvidia ne SPERRE eingebaut. Find ich wirklich, wirklich traurig. Mit den Ageia Physx Karten konnte man wenigstens noch sagen, es käme jeder, der will, in den "Genuss" vom damals kaum verbreiteten Physx .. und jetzt? Soll ich meine HD4850 verkaufen und mir 2 Nvidia Karten für 50% mehr Kosten pro Karte holen, obwohl sie nicht viel schneller sind, damit ich Physx habe? (bezogen auf GTX260) :daumen2:
Ganz, ganz arme Aktion. Wenn ich drüber nachdenke, wäre es vielleicht für die Spielergemeinde besser gewesen, wenn Ageia einfach nur Pleite gegangen wäre und Physx untergegangen, auch wenn eine wirklich tolle Idee hintersteckte.

^
Meine Meinung, ja, ich hab ne ATi Karte im Rechner und will keine Nvidia. Könnt ihr zerreißen, wie ihr wollt, ob es Neid wäre oder nicht. Für die Spielergemeinde ist Physx aufgrund der Zersplittung wirklich schlecht.
 
ATI hatte übrigens die Chance auf den Physx-Zug aufzusteigen - haben sie nicht gemacht da sie es für unnötig hielten - gut wie sie wollen jedoch sollten sie dann mal eine Alternative zeigen UND die auch fördern. Ich sehe nämlich noch garnichts seitens ATI.
Das war eine glatte Lüge und wenn man ein bisschen nachdenkt weiß man das auch (lies dir dazu eine News zu einem Interview von nem Mitarbeiter von ATI vor ein paar Tagen)
Außerdem ist die Schnittstelle immer noch von Nvidia entwickelt und optimiert, ATI wäre SELBST WENN es das Angebot gäbe, ziemlich dumm es zu nutzen.
Jeder Hersteller von Spielen würde es dann uneingeschränkt einsetzen, aber Nvidia würde es nur für die eignen Karten optimieren und natürlich nicht für ATI Karten, wodurch Nvidia dann, egal wie gut die AMD/ATI Karten sind, in jedem Benchmark gewinnen würde.
Sie nehmen ja jetzt schon nach und nach die CPU Unterstützung raus.

ALso verbreite hier keine Lügen und informier dich mal richtig

Ganz, ganz arme Aktion. Wenn ich drüber nachdenke, wäre es vielleicht für die Spielergemeinde besser gewesen, wenn Ageia einfach nur Pleite gegangen wäre und Physx untergegangen, auch wenn eine wirklich tolle Idee hintersteckte.
Ageia hatte von vorneherein vor, aufgekauft zu werden von nem großen Unternehmen, falls man selbst den Standard nicht in den Markt pressen kann.

Aber ich stimme dir zu, dass es PhysX schlecht für den Markt ist.
Ausnahmsweise hoffe ich auf einen Standard von Microsoft welcher in Direct X integriert wird, dann hat das Theater ein Ende
 
Aber ich stimme dir zu, dass es PhysX schlecht für den Markt ist.
Ausnahmsweise hoffe ich auf einen Standard von Microsoft welcher in Direct X integriert wird, dann hat das Theater ein Ende

Das brauch es nicht, solange die entwickler anfangen Direct Compute zu nutzen können auch offene standarts eingesetzt werden und da spielt der Grafikkartenhersteller keine rolle mehr. Also nicht die Physikengine ist entscheidend sondern die schnittstelle mit der sie auf der GPU berechnet wird.
 
Gibt es vielleicht auch mal einen direkten Vergleich der Optik, der belegt, was für immense Vorteile es mit sich bringt, wenn ein paar Abgase, die mit viel Glück 1000 Pixel einnehmen, mit 30000 Partikeln berechnet werden?
 
Hab ichs nur übersehen, oder fehlt hier im Test wirklich der Betrieb zweier Karten? Wenn ja, welche Haupt-Graka brauchts und welche PhysX-Graka sollte es mindestens sein?

Wenn das dann immer noch eine 260er is, was ich mir zwar ned vorstellen kann, dann isses ja wirklich leistungshungrig...

Wo bleibt eigentlich ein Test der Roten? Ohne PhysX kann man die ja auch testen?
 
ATI hatte übrigens die Chance auf den Physx-Zug aufzusteigen - haben sie nicht gemacht da sie es für unnötig hielten - gut wie sie wollen jedoch sollten sie dann mal eine Alternative zeigen UND die auch fördern. Ich sehe nämlich noch garnichts seitens ATI.
Dann solltest du mal die Augen aufmachen. AMD fördert Havok und die Open Source Engine Bullet. Ausserdem hielt es AMD nicht für unnötig, sondern eine proprietäre Technologie von nVidia zu lizenzieren, macht schlichtweg keinen Sinn und hätte mehr Nachteile als Vorteile für AMD gebracht.
 
Gibt es vielleicht auch mal einen direkten Vergleich der Optik, der belegt, was für immense Vorteile es mit sich bringt, wenn ein paar Abgase, die mit viel Glück 1000 Pixel einnehmen, mit 30000 Partikeln berechnet werden?

Super Frage, würde mich auch interessieren.
Vielleicht auch gleich einen Test, wo man den Unterschied sieht zwsichen normalem X58-SLi und "Nvidia200 certified X58-SLi"
 
Also das Demo ist ganz nett, aber ich sehe keinen Grund, mir mindstens eine GTX260 (haubt)und eine GTX260 (PhysX) zuzulegen um dies Spiel in aller Pracht zu spielen(ist im meinen Augen nicht mehr Zeitgemäß). Wenn die eingesetzte Physik wehnigstens mehr wäre als Abgasqualm und Partike, wäre das anders, Aber so ist es eher ein Gimmig. Wir reden von einem Spiel das ca. 40 € kostet und einen Zusatzkarte braucht die 130€ kostet. Das steht in keinem Verhältnis. Von daher wird dies Spiel im Regal bleiben. Sorry
 
Hab ichs nur übersehen, oder fehlt hier im Test wirklich der Betrieb zweier Karten? Wenn ja, welche Haupt-Graka brauchts und welche PhysX-Graka sollte es mindestens sein?

Wenn das dann immer noch eine 260er is, was ich mir zwar ned vorstellen kann, dann isses ja wirklich leistungshungrig...

Wo bleibt eigentlich ein Test der Roten? Ohne PhysX kann man die ja auch testen?

Auch meine Frage. Warum immer nur eine so einseitige Berichterstattung? Nichts gegen PhysX und NVIDIA, aber das sieht doch echt so aus, als ob PCGH Werbung für Karten von NVIDIA macht...zumindest stellt Ihr das so hin.

Was mich u.a. interessieren würde: Wenn man PhysX auf niedrigen Einstellungen auch ohne GPU-Unterstützung nutzen kann, wie sieht das dann aus? Vergleich zu ATI?
 
ja, dass das ganze nicht mit SLI getestet wurde, wundert mich auch.

gerade das wäre doch interessant, wenn eine GPU die physx berechnung übernimmt.

ich hab inzwischen auch zwei gtx 260-216 im SLI..

schade dass das nie mit gebenchmarkt wird und beschrieben wird, ob das so funktioniert, dass eine gpu die physx übernimmt mit den derzeitigen treibern.

das wäre mal wünschenswert.
 
Zurück