News WTF-Kolumne: Nvidias PhysX - Fluch oder Segen?

es geht ums prinzip.
wenn ich ein feature nutzen will, dann muss ich mir halt die hardware kaufen, die das unterstützt.
wenn ich mit meinem handy fotos machen will und mein handy hat keine kamera mecker ich ja auch net rum, dass ich benachteiligt bin, sondern informier mich halt vorher und kauf mir ein handy mit kamera zur not halt auch net von meinem lieblingshersteller.
und wenn ichs net unbedingt brauch, dann hab ich auch nichts rumzumeckern, weils mir dann sowieso egal ist, oder was machen denn bitteschön die leute mit apple-rechnern die sind ja auch benachteiligt, weils dx für mac garnicht gibt. meckern die rum? nö.


Ich glaube du kapierst nicht worum genau es geht.
 
Wenn es mal ein NV Fanboy gab, dann über Jahre mich wenn nicht sogar Jahrzehnt.

Was NV seit ein paar Jahren bei mir erreicht hat mit ihrer Politik ist das ich zu ATI gewechselt bin.
Da ich im Bekanntenkreis, Freundeskreis und Familie der jenige bin der bei Pc´s angesprochen wird ... wird überall nur noch ATI verbaut.

Und muss zugeben, es war kein Fehler von mir gewesen!
 
Wer sich nen Apple Rechner zum spielen holt hat keine Ahnung.

Aber der Vergleich mit DX hinkt total, schließlich ist das die Schnittstelle ohne die kein Spiel funktionieren würde und wird einzig und allein von den Konsolen ausgebremst.

Physx ist ein völlig anderes Ding, es ist eine Middleware! Das es auch offen geht, wird ATI mit der Bulletengine zeigen. Ausserdem, wie kannst du behaupten, nur wenn man ATI kauft, das man ein Fanboy ist? Wie wäre es damit, das man mehr auf Preis-Leistung setzt, oder Verbrauch oder wie es in den letzten Monaten war, es schlichtweg keine vernünftigen Midrangekarten von Nvidia gab?

Ausserdem gibt es nur eine Handvoll GPU-Physx Titel, gerade weil es nur mit Geforce funktioniert! Da dreht man sich dich im Kreis, denn nur wegen einem Feature, welches echtes Potenzial hat, aber nur von 5 Titel unterstützt wird, kauft man keine Karte! Nur begreift das Nvidia nicht, wer Nvidia kauft, dann bestimmt nicht wegen Physx, sondern anderen Qualitäten wie besseres AF usw.
 
@mclee:sag ich doch. wer ati haben will, den stören die par physx effekte gleich dreimal net.
und wers braucht kann sich ne nv-karte kaufen.
ich weiß ja auch net was ihr von physx erwartet. die zusatzeffekte bringen auch net viel mehr. sicher ganz net wenn mans hat aber notwendig bestimmt nicht.
wer ne gpu unabhängige lösung will muss wohl auf intel oder microsoft hoffen deswegen ist physx aber immer noch nicht benachteiligend.

@spawn1702 und was ist mit openGL? du hast meinen post offenbar auch nicht richtig gelesen. ih habe gesagt entweder ist einem physx unwichtig oder man ist in einen hersteller vernarrt. übrigens mit einer midrange karte alleine kannst du physx vergessen. entweder du baust dir noch ne zweite gpu für physx ein oder du nimmst gleich ne große.
und was soll die aussage wer sich zum spielen nen apple kauft is selber schuld. kann ich auch sagen wer sich keine nvidia kauft ist selber schuld, oder wie. dx ist eben auch nicht offen, sondern eine api von microsoft und damit nicht hersteller unabhängig.
 
Zuletzt bearbeitet:
OpenGL ist völlig uninteressant! Dessen Zeit ist schon lange vorbei und sie sind selber schuld...

Im Übrigen reicht bei Batman oder Mirrors Edge eine Midrange Karte vollkommen aus...aber es hängt hier noch ein weiterer Rattenschwanz dran, der auch noch im Artikel erwähnt wird.
Was ist mit den Leuten die zwar jetzt eine ATI Karte besitzen aber noch eine 98XX oder 2XX Nvidia Karte haben und diese gerne noch benutzen wollen? Diese werden absichtlich von Nvidia ausgeschlossen, geauso wie viele Besitzer der alten Ageia Karte und einer ATI Probleme haben. Ja es gibt einen Treiberhack (ich benutze ihn selbst) aber soviel zur Benachteiligung seitens Nvidia.
 
von welcher midrange karte redest du da? gtx460?
da muss ich dir recht geben. das find ich auch nicht in ordnung dass die leute mit ati und nvidia karte ausgeschlossen werden außer durch modifikationen die das wieder hinbiegen.
das an sich macht physx aber noch nicht zu einer benachteiligenden technologie.

aber du willst mir hier doch auch gerade erzählen, dass du dx, einen plattform abhängigen standard dem plattformunabhängigen standard openGL vorziehst, oder?
 
Zuletzt bearbeitet:
ja richtig aber PhysX ist schon für ca. 50€ zu haben oder weniger, bei einer gebrauchten karte. Wie ich mit einer 8600gt mit 512 mb und die hat bei Batman, Mirrors Edge u.s.w. sehr gute FPS werte gegeben. Also es geht auch mit kleine sachen.
PhysX finde ich eine gute Technologie, wenn sie richtig angewandt und Programmiert wird, versteht sich. Und Ich bin trotzdem ATI user. Was aber auch schon erwähnt wurde, Crysis und Far-Cry ist mit sehr guter Physik versehen, da sieht man das es auch anders geht.
 
******* was Teuer 130 euro hat das Teil von Bfg damals gekostet und hätte mehrere Grafikkartengenerationen überlebt .
Jetzt wäre man gezwungen ein Stromvernichtungsmonster von diesem hung hang peng zu kaufen der sich ceo bei Nvidia schimpft .
Nein Danke hatte die PPU damals einfach um eine gute idee zu pushen aber Nvidia bekommt von mir solange keinen Pfennig wie sie so eine Politik verfolgen und dazu noch überteuerten zeitfremden Mist verzapfen .

Beiss schnapp knurr
 
Ich bin kein Freund von aufwändigen Lösungen. Sicher ist eine 8600 GT als Zweitkarte nicht teuer, aber sie verbraucht trotzdem Strom, produziert Geräusche und zusätzliche Wärme und benötigt einen PCIe-Steckplatz. Also ist diese Lösung durchaus mit höheren Kosten verbunden.

Wenn ich mir Physikeffekte anschaue, so darf ich behaupten, dass BF: BC2 momentan das Spiel ist was am meisten auf Physikeffekte setzt, da nicht nur die Fahrzeuge, sondern sämtliche Gebäude zerstörbar sind. Dieses Spiel setzt auf Havok. Sogar mit meinem C2D läuft das Spiel einwandfrei flüssig, auch wenn die CPU bei besonders heftigen Explosionen kurzzeitig in die Knie geht. Dementsprechend bin ich mir nicht sicher, ob PhysX unbedingt das Rennen machen wird oder nicht doch eher solche Lösungen wie Havok.
 
Es geht nicht um nvidia vs ati...es geht in meinen Augen darum, dass die PC Community zusammen steht und ein Feature hat, was sich von den Konsolen abhebt um eine geschlossene starke Käuferschaft zu bilden und die Entwicklung für solche Titel voranzutreiben, die sich optisch deutlich von den Konsolenpendanten abheben oder vllt. sogar exklusiv sind, um wieder mehr Spieler für die Plattform PC zu interessieren.
Ich fand Physx z.B. bei Mirrors Edge ganz nett, aber mehr auch nicht. Aktuell ist es halt mehr Marketinginstrument von nvidia, als ein möglicher exklusiver Vorzeigeffekt des PC´s. Spiele die massiv auf Physx setzen werden, kommen dann bei ATI Usern bestimmt nicht so toll an...so bleiben es halt meist einfache Konsolenports, die dem PC nicht wirklich weiterhelfen.
 
@mksu:100% agree. wie gesagt ist ganz nett wenn mans sowieso schon hat, aber unbedingt brauchen tut mans nicht. deswegen wird sich wohl sowas wie havok auf dauer durchsetzen da stimme ich dir zu.

@slayerdaniel: das wirst du allein durch bessere grafik vergessen können. das musste mitlerweile auch entwickler crytek einsehen. mutliplatform titel sind einfach kosteneffizienter. man hat nicht so viel mehr aufwand, erreicht aber auf einmal ein viel größeres publikum. so traurig es sich für pcler auch anhört, aber das ist die zukunft.
 
Zuletzt bearbeitet:
@mksu das die Physik von Havok schlecht ist, würde ich niemals behaupten, aber meine 8600GT verbraucht max. 50W und benötigt einen PCI-E 16X oder 8X oder 4X oder 1X. Das ist auch bei PhysX möglich.( diese gibt es auch mit Passiv Kühlung)
 
@pcgh_mark: stimmt :) garnicht drangedacht.
aber hier gehts wohl auch eher um die hardware beschleunigte version der physx-engine, oder?
 
Schöne Kolumne Herr Sauter, die war aber auch dringend nötig ;).

PhysX ist mindestens so verbreitet wie Havok, wenn es um die CPU-Variante geht.

Genau das ist ja das schlimme, wenn die API schon so sehr verbreitet ist, dann kann man auch einen vernünftigen CPU-Support seitens Nvidia erwarten. Wenn sich das nicht ändert, wird PhysX genau so schnell verschwinden, wie es gekommen ist.

MfG,
Explosiv
 
Zuletzt bearbeitet:
Schöne Kolumne Herr Sauter, die war aber auch dringend nötig ;).



Genau das ist ja das schlimme, wenn die API schon so sehr verbreitet ist, dann kann man auch einen vernünftigen CPU-Support seitens Nvidia erwarten. Wenn sich das nicht ändert, wird PhysX genau so schnell verschwinden, wie es gekommen ist.

MfG,
Explosiv


PhysX als CPU berechnete Physik gibts aber schon ewig und GPU PhsyX hält sich schon seit zwei Jahren und wird leider immer beliebter. Von verschwinden kann daher keine Rede sein.
 
PhysX als CPU berechnete Physik gibts aber schon ewig und GPU PhsyX hält sich schon seit zwei Jahren und wird leider immer beliebter.

Den Artikel habe ich gelesen und mein Kenntnis-Stand ist aktuell, aber trotzdem Danke :schief:.
Von ewig kann überhaupt keine Rede sein, seid dem PhysX von Nvidia kommt, sind es gerade einmal ein paar Jährchen.
Seid dem geht es stetig bergab, was den Support des PCs als Plattform angeht (persönlicher Eindruck), bzw. schauen immerhin noch 40-50% in die Röhre, da keine Nvidia-GPU im Rechner.
Ich finde es immer noch eine Frechheit, dass ein Hardware-Hersteller dermaßen in die Entwicklung der Spiele eingreift.
Herr Klaus bezahlt 50,- Euro für ein Spiel, andere bekommen für die 50,- Euro mehr Effekte zu sehen, aber Herr Klaus hat genau so viel bezahlt und versteht die Benachteiligung nicht :ka:( Verstanden was ich meine? ).

PhysX ist hausgemachte PR-Propaganda von Nvidia, nicht mehr, nicht weniger. Da können jetzt auch NV-User sagen was sie wollen, dass ist meine Meinung und die wird sich so schnell nicht ändern, so lange NV nichts ändert.
Das ist das ewige leidige Thema. Ich bin überzeugt davon, dass das auf Dauer mit Sicherheit nicht gut gehen (kann!).

MfG,
Explosiv
 
Das rumjammern in richtung Nvidia ist mal wieder typisch. Wer baut PhysX ein? Genau. Die, die Spielecodes bauen. Das würde man nicht tun wenn es "nicht gut" oder "nicht einfach" wäre. Zudem bekommen die Leute unterstützung, Kaffee & Kuchen von Nvidia serviert, während die Leute ihre Codes auf die Beine stellen. Solange AMD sich auf die faule Haut legt und sich an seinen Grafikpatches auf den Asbach karten ausruht, ist die Welt ja in Ordnung.

Nvidia Spieler zahlen mehr in Form von Strom, Kartenpreisen. Dort sparen eben die ATi Spieler und geniessen immer verbugte und lahme Treiber. Nvidia ist graziös was das angeht. Zudem ist neben PhysX die BQ perfekt und es gibt CUDA unterstützung.

Nvidia hat investiert, und ruht sich eben auf seinen Investitionen aus. Ich würde die SDK nicht freistellen wenn ich so viel Geld reingepumpt hätte. AMD sollte malgas geben und Versprechen einlösen mit der OpenCL eine offene Physik Schnittstelle für alle zu schaffen. Aber wie wir alle von AMD aus der Vergangenheit gelernt haben...

...wenn it`s irgendwann überhaupt Done.

Last but not least: Nvidia braucht im Grunde kein PhysX um zu überleben.
 
Explosiv schrieb:
Ich finde es immer noch eine Frechheit, dass ein Hardware-Hersteller dermaßen in die Entwicklung der Spiele eingreift.
Eingreift? Nein. NV nimmt den Konsolen-Port und packt ein paar Effekte auf das finale, fertige Spiel drauf. Mehr nicht.
Explosiv schrieb:
Herr Klaus bezahlt 50,- Euro für ein Spiel, andere bekommen für die 50,- Euro mehr Effekte zu sehen
Dafür hat Herr Klaus aber eventuell mehr Geld für die Grafikkarte bezahlt.
 
Eigentlich sind es doch die Spieleentwickler, die auf Nvidia/Physx einwirken müssten. Wenn Physx auf der CPU allen Ernstes im Wesentlichen mit x87-Befehlen arbeitet, müsste es doch eine furchtbar schlechte Performance im Vergleich zur Havok-Engine oder selbstgestrickten Lösungen haben, die moderne CPU-Architekturen wohl weit besser nutzen. Wer als Spieleentwickler dann Physx einsetzt, enthält ja 2/3 aller PC-Spieler absichtlich Effekte vor - von Konsolen ganz zu schweigen.
 
Zuletzt bearbeitet:
Zurück