Haarige Sache: Nvidia erklärt Haar-Effekte

AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Wäre ja auch zu schön wenn endlich mal diese GPU-Physik für OpenCl kommen würde. Wollten die nicht Bullet mal auf OpenCl portieren und war sowas nicht auch für Havok auf der Playstation-Präsentation zu sehen?

Edit: Hab mir den Link von Locuza nochmal angeschaut, weiß jemand ob das endlich verfügbar ist?
Bullet läuft schon über OCL, falls per GPU berechnet wird.
Havok bietet mit der nächsten Generation auch einen IVH neutralen GPU Support an.

Wann Bullet 3.0 verfügbar sein wird, ist schwer zu sagen, da steht einfach nur "bald".
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Und beides basiert auf offenen Standards, ander als CUDA.;) TressFX läuft auch auf Nvidiakarten recht gut.
Ob es sich Nvidia auf Dauer leisten kann, nur auf Physx/CUDA zu setzen, entscheiden immer die Kunden, die so eine Strategie entweder unterstützen oder ablehnen können, indem sie eben kaufen oder nicht. Ich habe da aber eher weniger Hoffnungen, Physx wird ja gerne mal "etwas" gehypt.

Das hängt doch in erster Linie davon ab, ob und wie viele Spiele PhysX unterstützen. Wenn die ganzen Entwickler mal sagen würde, dass sie nur noch auf offene Standards setzen, ginge PhysX bald die Luft aus.
Aber nVidia wiederum wird alles daran setzen, dass PhysX erhalten bleibt. Schließlich haben die PhysX ja auch erst durch den Kauf von Ageia erworben und wollen das Geld für den Kauf wieder reinkriegen.

Raff hat es damals (2008) schon gut auf den Punkt gebracht:

"Raffael Vötter

Ganz großes Kino. Intel hat Havok(FX), Nvidia PhysX ... und AMD wird gezwungen, ihren Physikunterricht wiederaufzunehmen. Drei Lösungen, dreifacher Programmieraufwand. Physik muss von Microsoft über DirectX ("DirectPhysics") spezifiziert und die Hersteller so auf einen Nenner gebracht werden, sonst haben wir wieder eine Situation wie vor zehn Jahren: mit Glide, Direct3D und OpenGL. Und die ganzen schönen Quad- und bald Octacores heizen ohne Last vor sich hin, weil ihnen niemand Physik zu fressen gibt."
 
Zuletzt bearbeitet:
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Also Leute.

Ich mag jetzt lügen, aber ich erinnere mich noch dran. Dürfte etwar zu GF2xx Zeiten gewesen sein.

Dort hat Nvidia gesagt, dass PhysX auch von AMD benutzt werden kann und es offen (edit: offen im sinne von, jeder darf es benutzen, nicht jeder darf es entwickeln) wäre.
AMDs antwort darauf war nur. Noe, wie haben das bei uns in der Hardware nicht drin. Also machen wir es nicht (Wohl gemerkt, dass seitdem mehrere Generationen vergangen sind und AMD sich nicht bewegt hat.).

Es ist also NICHT so, dass Nvidia PhysX unter verschluss hält und es damit proprietär wäre und wenn es so ist, dann nicht wegen Nvidia, sondern wegen AMD...

Übrigens mag AMD offene Standards, weil sie da selber kaum arbeit reinstecken müssen. Das machen ja andere für sie, während sie, wenn sie ein Projekt wie PhysX oder Cuda beginnen würden, ein finanzielles risiko eingehen müssten und das mag AMD ja nicht so gerne.
 
Zuletzt bearbeitet:
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Was stört ist eben diese Stückelung, die Raff beschrieben hat. Jeder Hersteller hat mehr oder weniger seine eigene Suppe am Kochen und die Entwickler dürfen sich dann eine aussuchen. Und je nach Spiel stehen dann die Leute mit nVidia- oder AMD-Karte blöd da, wenn ihre Karte die Suppe nicht auslöffeln will oder kann.

Daher denke Ich wie gesagt, dass es an den Entwicklern liegt. Es müssten sich alle für einen gemeinsamen Standard einsetzen und diesen dann auch konsequent exclusiv nutzen.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Also Leute.

Ich mag jetzt lügen, aber ich erinnere mich noch dran. Dürfte etwar zu GF2xx Zeiten gewesen sein.

Dort hat Nvidia gesagt, dass PhysX auch von AMD benutzt werden kann und es offen (edit: offen im sinne von, jeder darf es benutzen, nicht jeder darf es entwickeln) wäre.
AMDs antwort darauf war nur. Noe, wie haben das bei uns in der Hardware nicht drin. Also machen wir es nicht (Wohl gemerkt, dass seitdem mehrere Generationen vergangen sind und AMD sich nicht bewegt hat.).

Es ist also NICHT so, dass Nvidia PhysX unter verschluss hält und es damit proprietär wäre und wenn es so ist, dann nicht wegen Nvidia, sondern wegen AMD...

Übrigens mag AMD offene Standards, weil sie da selber kaum arbeit reinstecken müssen. Das machen ja andere für sie, während sie, wenn sie ein Projekt wie PhysX oder Cuda beginnen würden, ein finanzielles risiko eingehen müssten und das mag AMD ja nicht so gerne.
Das war so eine Shit-Story.
Nvidia hält die IP, CUDA und sonst was dazu gehört und AMD darf dann das CUDA Backend adaptieren und auf Nvidia angewiesen sein?
Wer mit Verstand würde darauf eingehen?

Bei offenen Standards ist es ja nicht so, als wäre das kostenlos, aber als Gemeinschaftsprojekt kommt es deutlich günstiger und kann potentiell eine schnellere Adaption erreichen.
AMD, welche häufig nur Rote Zahlen schreiben, finden so eine Lösung natürlich attraktiv.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Sie wären genau so auf Nvidia angewiesen, wie AMD und Nvidia auf Microsoft angewiesen sind (DirektX).
AMD könnte somit beide bereiche abdecken. Sowohl alles was openGL hat, als auch was physx ist. Damit hätten sie sogar mehr (bzw. besser ausgereifte, da sie bei den open zeug momentan besser darstehen) features als nvidia.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Sie wären genau so auf Nvidia angewiesen, wie AMD und Nvidia auf Microsoft angewiesen sind (DirektX).
Der Vergleich hinkt ja wohl von vorne bis hinten. Oder seit wann baut MS Grafikchips und stellt somit einen direkten Konkurrenten auf dem Markt dar?

AMD könnte somit beide bereiche abdecken. Sowohl alles was openGL hat, als auch was physx ist. Damit hätten sie sogar mehr (bzw. besser ausgereifte, da sie bei den open zeug momentan besser darstehen) features als nvidia.
Klar... Nvidia unterzeichnet freiwillig Verträge, die den Konkurrenten stärken. :lol:

Das ist doch alles graue Theorie, was du dir hier ausmalst. AMD ist gerade in einer beschissenen Position. Die Hardware ist der Konkurrenz bestenfalls ebenbürtig, sodass sich der Konsument sagt: Bei "Nvidia bekomme ich alles was ich bei AMD bekomme PLUS PhysX - also nehme ich Nvidia."
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Sie wären genau so auf Nvidia angewiesen, wie AMD und Nvidia auf Microsoft angewiesen sind (DirektX).
AMD könnte somit beide bereiche abdecken. Sowohl alles was openGL hat, als auch was physx ist. Damit hätten sie sogar mehr (bzw. besser ausgereifte, da sie bei den open zeug momentan besser darstehen) features als nvidia.
Wie KrHome gesagt hat, der Vergleich hingt extrem.

CUDA ist eine Schnittstelle und von Features angepasste Umgebung für Nvidia GPUs, welches Mitsprache-/Entwicklungsrecht hätte da AMD in dieser "perfekten" Welt schon?
Eine Geisel des direkten Konkurrenten zu sein ist niemals gut und man würde sich zwar selber kurzfristig attraktiver gestalten, aber mittel- bis langfristig auch das "Produkt" der Konkurrenz stärken, was später wie ein Bumerang zurück kommen kann.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Was denkt ihr kommt mit Havok oder Bullet bald ein konkurrenzfähiges Produkt im Bereich GPU-Physik auf den Markt? Wichtig äwre dann ja auch noch dass die Entwickler es nutzen.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Hmm, schwer zu sagen. APEX wird wohl wie bislang weiterlaufen und zusätzlich ausgewählte, gesponserte Spielchen Physx mit GPU-Beschleunigung bieten, man kann aber davon ausgehen, dass es nicht mehr werden wird als jetzt, tendentiell eher weniger. Wie viele Spiele mit ernsthafter Physx-GPU-Beschleunigung erscheinen denn pro Jahr? Mehr als zwei oder drei?
Wäre schon, wenn sich irgendwann ein gemeinsamer Standard (bspw. in einem neuen DX) durchsetzen würde, da hätten wir alles was davon und weniger Marketing-Blabla und Spiele mit lächerlicher Physik.:)
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Hmm, schwer zu sagen. APEX wird wohl wie bislang weiterlaufen und zusätzlich ausgewählte, gesponserte Spielchen Physx mit GPU-Beschleunigung bieten, man kann aber davon ausgehen, dass es nicht mehr werden wird als jetzt, tendentiell eher weniger. Wie viele Spiele mit ernsthafter Physx-GPU-Beschleunigung erscheinen denn pro Jahr? Mehr als zwei oder drei?
Wäre schon, wenn sich irgendwann ein gemeinsamer Standard (bspw. in einem neuen DX) durchsetzen würde, da hätten wir alles was davon und weniger Marketing-Blabla und Spiele mit lächerlicher Physik.:)

Schön wärs natürlich, aber ich bezweifle, dass Microsoft so schnell da etwas implementieren wird.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Was ob und wie ertragbar oder lohnenswert ist für AMD (ja, keine Mitsprache, aber ja auch keine Kosten) sei mal dahingestellt. Darüber können wir uns lange streiten (keine Lust heute).

Tatsache ist aber, dass es nicht an Nvidia liegt, dass es nicht allgemein genutzt wird. So wie es manch einer hier immer hinstellen mag.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Was denkt ihr kommt mit Havok oder Bullet bald ein konkurrenzfähiges Produkt im Bereich GPU-Physik auf den Markt? Wichtig äwre dann ja auch noch dass die Entwickler es nutzen.
Bullet würde ich nicht all zu ernst nehmen, dass dauert da noch eine Weile, bis es eine leicht einzubettene Physik middleware sein wird mit einem schönen Featureset.
Havok dagegen würde ich als starken Konkurrenten ansehen, allerdings gibt es ja weiterhin Unterschiede, ebenso hat Havok ein anderes Finanzierungsmodell.
Mit PhysX kommen Entwickler günstiger hinweg, aber wenn der Fokus später auf GPU-Physik liegt, hat man als Entwickler dann eig. keine große Wahl.

Schön wärs natürlich, aber ich bezweifle, dass Microsoft so schnell da etwas implementieren wird.
Es ist ja auch nicht MS ihre Aufgabe eine offene Physik Middleware zu entwickeln, die Entwickler dann nutzen können.
Das wird MS auch nie machen, außer sie sehen dicke $ Zeichen hinter einer Physik Middleware, wo man Geld eintreiben könnte.

Was ob und wie ertragbar oder lohnenswert ist für AMD (ja, keine Mitsprache, aber ja auch keine Kosten) sei mal dahingestellt. Darüber können wir uns lange streiten (keine Lust heute).

Tatsache ist aber, dass es nicht an Nvidia liegt, dass es nicht allgemein genutzt wird. So wie es manch einer hier immer hinstellen mag.
Hätte ich damals den Audi R8 meiner Freundin mitfinanziert, wo sie offiziell alleiniger Eigentümer gewesen wäre, so hätten wir bis heute eine Beziehung, aber da ich auf die Konditionen nicht eingehen wollte ist es Tatsache das die Beziehung wegen mir gescheitert ist und nicht wie manch ein Freund behaupten würde wegen ihr.

Also gewisse Tatsachen, sind ab einem gewissen Punkt gewiss lächerlich.


Aus meiner Perspektive war das ein guter PR-Stunt, frei nach dem Motto, Nvidia ist eine liebe, offene und kooperative Firma und stellt ihre Technologien und Softwarepakete zu günstigen Konditionen frei, aber faggot AMD wollte ja nicht mitarbeiten, weswegen die Schuld sind das wir armen PC-Gamer seit bald einer Dekade keine weitflächige GPU-Physik Unterstützung in Spielen haben.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Natürlich mal wieder voll die Fanboi-Warz ausgebrochen hier. OMG! Propertiäre Sachen sind immer Mist, egal ob von AMD, INTEL oder NVIDIA. Kurzzeitig klappt sowas, aber auf lange Sicht stellt sich der Anbieter damit selber ins Abseits. Das haben doch gerade im Bereich "Personal Computer" in der Vergangenheit unzählige Beispiele gezeigt. Um es mal abzukürzen, Nvidia muss mit solchen Spielchen aufpassen dass Sie sich nicht selber ausmanövrieren. Die Next Gen konsolen haben alle AMD GPUs, das ist auch der Grund aus dem ich da zuversichtlich bin, was das Vorantreiben einer offenen Schnittstelle für Stoff/Haar/Physiksimulation angeht. Wären die NextGens mit NV Chips gekommen hätten die doch sicher nur ihre PhySX Lizenzen gepusht.

Aber mal zum Thema: Findet irgendjemand von Euch, das im Video gezeigte, oder auch TrassFX wie in TR zu sehen erstrebenswert? Ich meine wie viel näher ist das am Realismus im Gegensatz zu heute und zu welchem Preis? Hat jemand von Euch Lust beim nächsten Skyrim von einem Yeti mit frischer Fönfrisur verkloppt zu werden? Wahrscheinlich würden wir uns alle totlachen. Bei ein paar Szenen sah es so aus als würde der Yeti nen elektrischen Schlag bekommen...halt wi eim Cartoon. Die gezeigten "Haare" sind viel zu flexibel, zwar ist das Gemeckere auf hohem Niveau..aber Leute...wir kaufen uns doch keine 300€ Grafikkarten, damit dann ein "Unrealismus" gegen einen anderen (viel rechenaufwändigeren) ersetzt wird.
 
Zuletzt bearbeitet:
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Die Haare sind natürlich noch unrealistisch.
Hier sehr ihr im Prinzip nur Menschen/Wesen mit sehr dünnen und frisch gewaschenen und getrockneten Haar.
Es fehlt hier "fett und schmutz", sowie dickeres haar. Ein Yeti, sofern er frisch gewaschen wäre, säh vermutlich wirklich so aus. Wenn er dagegen in der Wildnis lebt und mit dreck, schmutz und schützenden Fett bedeckt ist, wird das Haar natürlich borstiger bzw. weniger flexibel. Aber das sind dann einfach parimeter, die angepasst werden müssen.

@Locuza
ich mag ja sonst autovergleiche, aber das ist was vollkommen anderes hier.
Hier legt nvidia den Schlüssel sozusagen freiwillig auf den Esszimmertisch, womit du das Fahrzeug jederzeit fahren könntest. Aber AMD mag keine Sportwagen auf Fremdkosten, sondern nimmt lieber den A6 auf Gemeinwohl.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Aber mal zum Thema: Findet irgendjemand von Euch, das im Video gezeigte, oder auch TrassFX wie in TR zu sehen erstrebenswert? Ich meine wie viel näher ist das am Realismus im Gegensatz zu heute und zu welchem Preis? Hat jemand von Euch Lust beim nächsten Skyrim von einem Yeti mit frischer Fönfrisur verkloppt zu werden? Wahrscheinlich würden wir uns alle totlachen. Bei ein paar Szenen sah es so aus als würde der Yeti nen elektrischen Schlag bekommen...halt wi eim Cartoon. Die gezeigten "Haare" sind viel zu flexibel, zwar ist das Gemeckere auf hohem Niveau..aber Leute...wir kaufen uns doch keine 300€ Grafikkarten, damit dann ein "Unrealismus" gegen einen anderen (viel rechenaufwändigeren) ersetzt wird.
Mag da unrealistisch aussehen, aber man kann mit den Parametern geschwind etwas besseres realisieren.
Manchmal sind das auch einfach Demonstrationszwecke.

@Locuza
ich mag ja sonst autovergleiche, aber das ist was vollkommen anderes hier.
Hier legt nvidia den Schlüssel sozusagen freiwillig auf den Esszimmertisch, womit du das Fahrzeug jederzeit fahren könntest. Aber AMD mag keine Sportwagen auf Fremdkosten, sondern nimmt lieber den A6 auf Gemeinwohl.
Nein, Nvidia legt eben nicht den Schlüssel einfach so hin.
Ohne die genauen Konditionen zu kennen, ist das überhaupt kein Deal der einfach im Esszimmertisch rumliegt und here you go.
Wie soll so ein CUDA resolver auf einer AMD GPU funktionieren?
Was könnte da AMD anpassen, was müsste AMD überliefern, welche Performance hätte das usw.
Auf so einen Sportwagen würde ich am liebsten auch verzichten, da hat man mehr Nachteile, als Spaß an der Sache.
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Hi Locuza!
Wenn der R8 Deiner Ex jetzt abbezahlt ist...gib mir mal Ihre Telefonnummer!Ich steh auf reiche Frauen!
Ich fand Laras Haare schon nicht schlecht,und habe bei Borderland2 leider 1000 physikfreie Stunden Spielzeit.
Würden Die sich mal einigen,hätte Physik auch bald einen ganz anderen Stellenwert als die Spielereien derzeit!
Da die Haare und dort eine wehende Fahne...das kann es doch nicht gewesen sein!
Gruß Yojinbo
 
AW: Haarige Sache: Nvidia erklärt Haar-Effekte

Nein, Nvidia legt eben nicht den Schlüssel einfach so hin.
Ohne die genauen Konditionen zu kennen, ist das überhaupt kein Deal der einfach im Esszimmertisch rumliegt und here you go.
Wie soll so ein CUDA resolver auf einer AMD GPU funktionieren?
Was könnte da AMD anpassen, was müsste AMD überliefern, welche Performance hätte das usw.
Auf so einen Sportwagen würde ich am liebsten auch verzichten, da hat man mehr Nachteile, als Spaß an der Sache.

AMD hatte gesagt, dass ihre GPUs (damals) hardwaretechnisch nicht dazu im stande wären und es auch nicht mit einfachen Änderungen machbar wäre.
Das war der offizielle Grund der ablehnung von AMD.
 
Zurück