Nvidia GF100: Fermi-Geforce-Grafikkarte im Unigine-Heaven-DirectX-11-Benchmark

Blaaaaaa

Natürlich wird es PhysX immer geben - ich frag mich echt wo die Leute hier Leben. Ich habt keinen Plan von Nvidia.

@Two-Face
Deine Liste kannst du schon mal vergessen. Selbst Indie games wie Zombie Driver unterstützen PhysX - Ehrlich gesagt ist es auch ganz nett ;)

Warum es immer PhysX geben wird beweißt doch schon die ganze Zeit Nvidia ohne das du es merkst. Was bringt dx11, Havok und der ganze Kram wenn es am Developer vorbeigeht ;) Nvidia ist dafür bekannt dass sie die Entwickler direkt mit ihren Leuten unterstützen - das werden sie auch in Zukunft machen - deswegen wird es immer PhysX geben. Es wird immer PhysX exclusive games geben - Wie zb Metro 2033 - es ist nunmal ein exclusives feature welches Nvidia finanziell unterstützt.

Batman ist ein sehr gutes Beispiel - Im Spiel selber war es doch garnicht eingeplant tolle Physik effekte darzustellen (siehe Konsolen). Nur durch Nvidia selber hat das Spiel Physik dazu bekommen - Mit Havok hätte man genau das gleiche darstellen können. Wieso dann PhysX? merkst du was?
 
...

........Es wird immer PhysX exclusive games geben - Wie zb Metro 2033 - es ist nunmal ein exclusives feature welches Nvidia finanziell unterstützt.

Richtig, weil nViia die Developer finanziell unterstützt, aberauch nur deswegen.
Woanders würde man das Bestechung/Schmiergeld nennen.....
aber bei nV,......neeee
:stupid:
 
PhysX wird auch nur von ein paar Spielen unterstützt - und diese Unterstützung wird bald hinfällig, genau wegen DX11 - hier können die Entwickler nämlich frei entscheiden und Physik-Berechnung, ohne propietäre Software auch auf Radeon-Karten ermöglichen. PhysX in der Form wird es also bald nicht mehr geben;)

PhysX ist eine der leistungsfähigsten Physikengines am Markt, es ist die einzige Physikengine mit optionaler Hardwareunterstützung und das auch noch für die am weitesten verbreiteste physik-tauglich Hardware, es läuft (afaik ebenfalls als einzige Engine) auf allen relevanten Plattformen und als gratis Bonus gibts das ganze auch noch geschenkt.
Compute Shader dagegen sind... ...eine Idee, von der bislang kaum jemand ne Ahnung hat, wie man sie programmiert und für die noch weniger Leute die Hardware haben, um sie zu berechnen, was sich plattformübergreifend auch so schnell nicht ändern kann.

Der Kampf zwischen beiden wird spannend und DX11 hat sicherlich Chancen (PhysX könnte deutlich bessere haben, wenn Nvidia endlich die Treiberblockaden aufhebt), aber PhysX wird uns noch einige Jahre erhalten bleiben.



Ich kann die Leute sowieso nicht verstehen, die sich ständig über ATI-Treiber beklagen. Wenn es da angeblich so oft zu Komplikationen kommt, wieso habe dann ich in mehr als fünfeinhalb Jahren Radeon-Erfahrung NIE ein Problem mit ATI-Treibern gehabt? Da bereiteten mir die Soundkarten-Treiber von Creative weitaus mehr Kopfzerbrechen.

Es sagt ja keiner, dass es die schlechtesten Treiber am Markt wären. Es zählt auch nicht jedes Stück Software als stabil, das weniger oft abstürzt, als Win95a :ugly:
Ansonsten haben die ATI-Treiber afaik weiterhin das Problem, dass man entweder mit Verschlimmbesserungen oder mit Bugs leben muss, weil man Bugfixes und Bild"optimierer" nicht unabhängig voneinander schalten kann, es gibt stärkere Einschränkungen in der Treiberunterstützung für ältere Karten und für AGP ("für ältere Betriebssysteme" derzeit nicht, aber da hat sich ATI in der Vergangenheit auch nicht mir Ruhm beklettert) und afaik immer mal wieder Probleme unter OpenGL.
Ich kann aus eigener Erfahrung nur die desaströse Performance in Google SketchUp bestätigen. Eine HD3850 war da in etwa so schnell, wie Softwarerendering auf einer 3,4 GHz Netburst-CPU... (leichte Vorteile für die Radeon, wenn Texturen zum Einsatz kamen -war dann aber fast unnutzbar- große Vorteile für den Pentium bei untexturierter Ansicht. Beide kein Vergleich zu einer 7800GS, die damit andeutet, wie schlecht der ATI-Treiber wirklich sein muss, wenn er aus der -vermeintlich?- doppelten Rohleistung so sehr viel weniger rausholt)
 
Richtig, weil nViia die Developer finanziell unterstützt, aberauch nur deswegen.
Woanders würde man das Bestechung/Schmiergeld nennen.....
aber bei nV,......neeee
:stupid:




Kann man so einfach nicht sagen - Ein Entwickler der Physik nicht in sein eigentliches Spiel intigriert hat der jedoch von Nvidia daraufhin unterstützt wird PhysX zu intigrieren wird nicht bestochen. Nvidia fördert nur den Verkauf seiner Karten damit. Der Entwickler hat imer noch die Freiheit zu entscheiden ob PhysX oder ne andere Physik-Engine ;)
 
Batman ist ein sehr gutes Beispiel - Im Spiel selber war es doch garnicht eingeplant tolle Physik effekte darzustellen (siehe Konsolen). Nur durch Nvidia selber hat das Spiel Physik dazu bekommen - Mit Havok hätte man genau das gleiche darstellen können. Wieso dann PhysX? merkst du was?
Also das ist schwachsinn. Währen die Konsolen nicht schon lange am Leistungslimit dann hätte auch Batman auf den Konsolen Physik bekommen. Egal ob PhysX oder Havok.
Aber die 360 und PS 3 sind schon am Ende, da geht nichts mehr besser. So müssen die Programmierer immer sachen weglassen. In dem Fall halt den Physik Teil.
Der PC hat deutlich mehr Power heutzutage (was leider die wenigsten Ausnutzen) und so konnte man dem Spiel ohne Probleme PhysX spendieren. Kostet ja auf nVdia Karten nicht so brutal Leistung.
 
Also das ist schwachsinn. Währen die Konsolen nicht schon lange am Leistungslimit dann hätte auch Batman auf den Konsolen Physik bekommen. Egal ob PhysX oder Havok.
Aber die 360 und PS 3 sind schon am Ende, da geht nichts mehr besser. So müssen die Programmierer immer sachen weglassen. In dem Fall halt den Physik Teil.
Der PC hat deutlich mehr Power heutzutage (was leider die wenigsten Ausnutzen) und so konnte man dem Spiel ohne Probleme PhysX spendieren. Kostet ja auf nVdia Karten nicht so brutal Leistung.

Muss nett Schwachsinn sein - warum - weil die Leaderplattform was ist? - Richtig die Konsolen - Ein Spiel wird nicht in erster Linie für den PC entwicklet, heute nicht mehr mit wenigen Außnahmen. Insofern muss man sich um Addons wie Physik... garnicht erst kümmern - insofern kann man nicht wirklich sagen, dass es eingeplant ist eine speziel version von einem Spiel extra für den PC zu fertigen da man doch genau weiß wo man am meisten Geld verdient ;) Nvidia fördert hier ganz klar PhysX
 
Blaaaaaa

Natürlich wird es PhysX immer geben - ich frag mich echt wo die Leute hier Leben. Ich habt keinen Plan von Nvidia.

@Two-Face
Deine Liste kannst du schon mal vergessen. Selbst Indie games wie Zombie Driver unterstützen PhysX - Ehrlich gesagt ist es auch ganz nett ;)

Warum es immer PhysX geben wird beweißt doch schon die ganze Zeit Nvidia ohne das du es merkst. Was bringt dx11, Havok und der ganze Kram wenn es am Developer vorbeigeht ;) Nvidia ist dafür bekannt dass sie die Entwickler direkt mit ihren Leuten unterstützen - das werden sie auch in Zukunft machen - deswegen wird es immer PhysX geben. Es wird immer PhysX exclusive games geben - Wie zb Metro 2033 - es ist nunmal ein exclusives feature welches Nvidia finanziell unterstützt.

Batman ist ein sehr gutes Beispiel - Im Spiel selber war es doch garnicht eingeplant tolle Physik effekte darzustellen (siehe Konsolen). Nur durch Nvidia selber hat das Spiel Physik dazu bekommen - Mit Havok hätte man genau das gleiche darstellen können. Wieso dann PhysX? merkst du was?

Havok geht am Developer vorbei? :what: Schau dir doch mal die Liste an Havok-untersützender Spiele an, das sind weit mehr als bei PhysX.
PhysX ist eine nette Spielerei mehr net, und solange das nur von Nvidia unterstützt wird, sind den Programmierern die Hände gebunden, was die Gestaltung des Gameplays angeht - PhysX hätte durchaus das Potential eben jenes auch aufzubessern, aber nein, im Moment sieht man nur zerbrechendes Mobilar:ugly:
Es wäre für Entwickler weitaus interessanter, solche Effekte und letztendlich ein dadurch verbessertes Gameplay den meisten Spielern zur Verfügung zu stellen, und nicht nur der Hälfte. Vorrausgesetzt, die nötige Hardware verbreitet sich irgendwann dementsprechend und AMD bewegt endlich mal seinen Arsch hoch, was die Unterstützung von Spieledesignern angeht.
 
P
Havok geht am Developer vorbei? :what: Schau dir doch mal die Liste an Havok-untersützender Spiele an, das sind weit mehr als bei PhysX.
PhysX ist eine nette Spielerei mehr net, und solange das nur von Nvidia unterstützt wird, sind den Programmierern die Hände gebunden, was die Gestaltung des Gameplays angeht.......

Da bin ich ganz bei dir, dies propriertäre Zeugs behindert nur die Entwicklung.
Cuda/Stream sind da auch keine Ausnahme.
Dieses PhysX wird doch nur von nV und ihren Kunden so gehypt.
Als hätten sie da ganz was neues erfunden.
Havok & ComputeShader wäre da ie bessere Lösung finde ich.
 
Havok geht am Developer vorbei? :what: Schau dir doch mal die Liste an Havok-untersützender Spiele an, das sind weit mehr als bei PhysX.

Havok ist auch ein klitze kleines bißchen älter.

Es wäre für Entwickler weitaus interessanter, solche Effekte und letztendlich ein dadurch verbessertes Gameplay den meisten Spielern zur Verfügung zu stellen, und nicht nur der Hälfte. Vorrausgesetzt, die nötige Hardware verbreitet sich irgendwann dementsprechend und AMD bewegt endlich mal seinen Arsch hoch, was die Unterstützung von Spieledesignern angeht.

Wie soll AMD da "unterstützen"?
AMD müsste erstmal ein komplettes Entwicklerstudio für eine Hardware-unterstützte Physikengine aufbauen und selbige Engine entwickeln. Das ist weder billig noch zeitnah zu bewerkstelligen. Und selbst wenn es dazu kommt, wirst du noch immer keine umfangreichere, ins Gameplay integrierte Physik sehen, weil es den Konsolen schlicht an Rechenleistung fehlt. Da ist es für den Designer dann auch kein so großer Unterschied mehr, ob er zusätzliche Effekte nur für die 20% seiner Kundschaft einbaut, die ne Nvidia Grafikkarte hat, oder für die 20+15%, die eine Nvidia oder ATI-Grafik haben. Vermutlich ist ersteres sogar verlockender, solange er für letzteres nicht nur die zusätzlichen Effekte, sondern die komplette Physik neu erstellen muss.
Und bis AMD eine konsolentaugliche Physikengine verschenkt, wird wohl noch einige Zeit ins Land gehen.
 
Zuletzt bearbeitet:
P
Havok & ComputeShader wäre da die bessere Lösung finde ich.

Klar wäre eine gemeinsame Lösung für Physik berechnungen besser aber bisher sehe ich da nicht viel Unterstützung seitens AMD/Ati - mir ging es jedoch lediglich darum zu zeigen dass PhysX nicht aussterben wird ;)


@topic
Bisher gibt es wenig informationen über diesen 32x Anti-Aliasing Modus - es könnte auch durchaus auch ein komplett neuer Modus sein. Bevor man nicht irgendwelche Testergebnisse sieht - sollte man nichts über jene mögliche quali sagen insofern kann man diese News mal wieder "zur Kenntnis nehmen" - mehr aber auch nicht ;)
 
Anscheinend kennst auch du dich erst mit Grafikkarten aus, seit Nvidia mit den GeForce 8800ern die Oberhand gewonnen hat.

ach gottchen ... wann war den nun ATI mal signifikant schneller als NV?
Ich entsinne mich an "TNT" und "TNT2" an "GF256", was hatte den ATI damals zu bieten Rage und sonn´ Zeugs. Der Aufkleber "für Home and Office"
schien mir eine ATI-Erfindung. Solche Kracher wie "Rage Fury MAXX" sollten´s richten und was wurde daraus, der Schrott des Jahrhunderts weil Windows Millennium kam und somit die Treiber ausblieben, aller spätestens mit XP war Schluss mit Lustig. Übrigens verarschen sie uns jetzt schon wieder und stellen mal so ebend den Treibersupport für XP ein, klasse Leistung!
 
ach gottchen ... wann war den nun ATI mal signifikant schneller als NV?

Juli 2002 - Januar 2003 mit der 9700 Pro (und signifikannt leiser bis Dezember 2003)
September 2009 - ? 2010

Axo, die Rage Fury MAXX war sowieso ne Totgeburt das letzte Aufbegehren einer veraltenten Technologie, dass kennt man aber auch von NV ich sag nur GF4 Ti 4800.
 
Zuletzt bearbeitet:
Mit der X19X0-Reihe war ATI auch schneller als Nvidia, außerdem hat ATI eine bessere Bildqualität geboten ;)

Allerdings waren die X19x0-Karten nicht leiser oder stromsparender... :ugly:
 
Für mich ist die Lautstärke kaufentscheident. Schließlich gab es damals einen Grund weshalb ich mich für die eigentlich langsamere 7900 GTX und gegen die X1900XTX entschieden habe. Die X 1900XTX hat sich echt grässlich angehört.... :daumen2:
 
Ich sage es mal so, der Föhn meiner Freundin war leiser als die X1900XTX...:ugly:

Aber ich denke dass "Fermi" auch übelst laut werden wird, bei den Leistungsdaten und dem mickrigen Lüfter...

Schon die GTX2X0-Karten waren/sind nicht gerade leise, "Fermi" wird das wohl noch einmal toppen ;)
 
lange entwicklungszeit + intel verarsche = hoher preis und rest hohe lautstärke :lol:...

naja mal sehen immerhin würde nv damit den kauf von ohrenschützern steigern ... :lol:
 
Zurück