News AMD: Vortrag und Demo zu GPU-Physik auf der kommenden GDC

Das wird sich auch nicht ändern solange nVidia die konditionen nicht abändert.

Welche Konditionen????

NV hat die Physx Lizenz für lau angeboten. ATI hatte sogar ab der HD38xx Reihe mit Stream die technischen Möglichkeiten zur einfachen Umsetzung, es ist nicht mal ein Eingriff in die Architektur von Nöten.

Das was ATI/AMD daran hinderte ist das Abkommen mit HAVOK (Intel). Aus diesem Grund haben sie Physx abglehnt.


mfg

Kosake
 
Die waren ganz einfach AMD/ATI hätte einen Teil der Treiber und der Architekture der
Radeons offen legen müssen, da nVidia die Physx-Software selber angepasst hätte dann.

Tja und sicherlich hätte so jeder gehandelt denn niemand gibt dem Feind die Waffen um bekämpft zu werden.

So stand es mal hier und auf CB in ner News drin.
 
Die waren ganz einfach AMD/ATI hätte einen Teil der Treiber und der Architekture der
Radeons offen legen müssen, da nVidia die Physx-Software selber angepasst hätte dann.

Schon klar, dass NV ihre Technologie angeboten hat, oder???

AMD/ATI hätte nur diese Technologie verwenden müssen. NV hätte garnix davon. Die Anpassung von der du redest wird von AMD/ATI selbst vorgenommen und auf Stream angepasst.

Im Endeffekt hätte AMD/ATI mehr Einblicke in NV's Architektur gehabt, als anders herum.


mfg


Kosake
 
Also noch eine dritte Schnittstelle für Physik. Das das (Intel-)Havok eine GPU-Unterstützung bekommt kann ich mir beim besten willen nicht vorstellen, dass würde ja Intels CPU-Marketing ganz schön unter Druck bringen. Andererseits - ob AMD die Ressourcen hat eine komplett neue Physikengine zu entwickeln? Wie üblich: Fragen über Fragen.
 
Schon klar, dass NV ihre Technologie angeboten hat, oder???

AMD/ATI hätte nur diese Technologie verwenden müssen. NV hätte garnix davon. Die Anpassung von der du redest wird von AMD/ATI selbst vorgenommen und auf Stream angepasst.

Im Endeffekt hätte AMD/ATI mehr Einblicke in NV's Architektur gehabt, als anders herum.


mfg


Kosake

Korrekt.Hier zwischen AMD/Ati und N.Vidia läuft aber stillschweigend mit aller Macht ein harter Konkurrenzkampf.Deswegen wäre es auch für AMD/Ati schlecht überhaupt Daten auszuplaudern.:what:
 
Korrekt.Hier zwischen AMD/Ati und N.Vidia läuft aber stillschweigend mit aller Macht ein harter Konkurrenzkampf.Deswegen wäre es auch für AMD/Ati schlecht überhaupt Daten auszuplaudern.:what:

Wenn man es so sehen will.....
Aber egal was heutzutage in der Wirtschaft beschlossen, man legt eigene Daten frei und offen auf den Tisch, geschützt wird sowas eigentlich durch Patente.

Nehmt doch einfach mal die von Microsoft einberufenen Versammlungen zur Festsetzung der DX xx Spezifikationen als Beispiel, da wird über einzelne Punkte verhandelt und man muss dort auch argumentativ zB. wegen bestehender Architekturen begründen wieso der eine Weg sinnvoll oder Änderungen angebracht sind. So ist das in einem Gremium.

Anderes aktuelles Beispiel, der Rechtsstreit zwischen AMD und Intel wegen der Lizenzen, denkt ihr Intel kennt sich nicht AMD 64 BIT aus???
Oder andersherum AMD mit den SSE Technologie???
Verwenden können sie die jedoch erst mit einer jeweiligen gültigen Lizenz.

Und glaubt ja nicht, dass AMD/ATI bzw. NV sich nicht die Kokurrenzprodukte haargenau in den Laboren angucken, deshalb sind sich doch die Architekturen dermaßen ähnlich. Die wissen sehr genau wie es um die Architektur und Treiber der Konkurrenz bestellt ist.
Aber wie zu Anfang gesagt, werden einzelne Bestandteile der Architektur per Patent und Lizenz geschützt!!!

mfg


Kosake
 
Ich sehs schon kommen dann haben wir wieder den Salat mit 2 verschiednen Standards und die Kunden sind wieder die Dummen die sich für entweder oder entscheiden dürfen und auf dauer werden sich die beiden Firmen eh wieder irgendwie zusammen kloppen müssen und bei alten games gibts dann wieder inkompatiblitäten ohne Ende.

AMD hätte ja auch einfach mal PhysX akzeptieren können.

Die PhysX PPU wär am Ende vielleicht doch das Beste gewesen?
Der einzige Fehler von Ageia war das die Karte einfach zu teuer war, für die hälfte des Preises und mit Support wie heute (UT3, Sacred 2, Mirrors Edge) hätte sich das Teil gleich besser verkauft!
Aber teure Karte ohne brauchbare Software und fraglich ob das Ding sich durchsetzen kann... klar da wartet der Kunde erstmal gemütlich ab was passiert.
 
Ich sehs schon kommen dann haben wir wieder den Salat mit 2 verschiednen Standards und die Kunden sind wieder die Dummen...
So wird es kommen, der Kunde hat wenn er Glück hat die für das Game richtige Grafikkarte im PC und kann GPU Physik nutzen oder muss auf Physik Effekte verzichten und den zudem langsameren Weg der CPU Physik wählen.

AMD hätte ja auch einfach mal PhysX akzeptieren können.
Zu dem Zeitpunkt hatten sie schon das Abkommen mit HAVOK unterzeichnet.

Die PhysX PPU wär am Ende vielleicht doch das Beste gewesen?
Nicht nur im Rückschluss:
Im Grunde war selbst die 2 Jahre alte PPU von Agiea so schnell wie eine 9800gtx laut Mirror's Edge Benchmarks.

Zudem darf man nie vergessen, dass Physx bzw. GPU Physik im Allgemeinen Ressourcen von der eigentlichen Graka - Aufgabe, nämlich Bilder auf den Bildschirm zu zaubern, abzieht.
Der Kunde wird im Vergleich zu vorher viel eher eine neue Grafikkarte benötigen, als im jetzigen Zyklus (immer größere Bildschirm noch garnicht mitbedacht).


mfg


Kosake
 
Zwar gibt es ein Abkommen zwischen HAVOK (Intel) und AMD/ATI, aber ich bin mal gespannt in wieweit Intel es zulässt, dass die Physik weg von der CPU gezogen wird.
Denn sie verlieren sonst bis zum Erscheinen von Larrabee einen kompletten Markt und können bis dahin auch nicht ohne weiteres wieder eingreifen.
Welchen Markt? Hast du dir die Benchmarks zu Mirror's Edge oder Sacred 2 angesehen? Bei aktivierter Physik kommt selbst ein 4,0Ghz-Quad nicht über 3 fps hinaus. Die CPU kann vielleicht einfache, kleine Physikberechnungen durchführen, aber die aufwendigeren Effekte - und um die geht es bei diesem Streit - sind nur auf der GPU möglich, bzw. auf dem Grafikbeschleuniger.
Und den Markt von letzterem wil Intel mit dem Larrabee betreten. Wenn Intel die Physikberechnung nicht CUDA-PhysX (--> Nvidia) überlassen will, muss eine andere, offene API her. Da lohnt es sich sogar, Tochter Havok mit AMD daran arbeiten zu lassen. OpenCL wird ja schon von DirectX 11 vorgegeben, da bietet sich das an.


Zu dem Zeitpunkt hatten sie schon das Abkommen mit HAVOK unterzeichnet.
Vielleicht hat AMD nicht wegen Havok abgelehnt, sondern schon wegen diesem OpenCL-Projekt, das bald vorgestellt wird. Wozu was anderes übernehmen, wenn man auch was eigenes anbieten kann? ;)


Nicht nur im Rückschluss:
Im Grunde war selbst die 2 Jahre alte PPU von Agiea so schnell wie eine 9800gtx laut Mirror's Edge Benchmarks.

Zudem darf man nie vergessen, dass Physx bzw. GPU Physik im Allgemeinen Ressourcen von der eigentlichen Graka - Aufgabe, nämlich Bilder auf den Bildschirm zu zaubern, abzieht.
Der Kunde wird im Vergleich zu vorher viel eher eine neue Grafikkarte benötigen, als im jetzigen Zyklus (immer größere Bildschirm noch garnicht mitbedacht).
Es ist allerdings unpraktisch, sich eine weitere Karte dazuzukaufen. Das ist mMn der eigentliche Grund, weshalb die PPU erfolglos geblieben ist (Nvidia bietet zwar mit PhysX-SLI was ähnliches an, aber hier kann man einfach eine alte Graka weiterverwenden). PhysX lässt sich einfach auf der Grafikkarte mitberechnen, das ist bequemer; außerdem hat Nvidia die Mittel, PhysX-Unterstützung voranzutreiben --> "The way it's meant to be played"
Ich weiss nicht, ob das mit Ageia so recht vorwärts gekommen wär... :huh:

EDIT: Zum Thema Leistungsabzug: Mirror's Edge beispielsweise ist nicht besonders hardwarefressend, von der Grafik her. Physik auf die GPU auszulagern ist hier nicht allzu schlimm. Und ehrlich, werden die Monitore wirklich ungebremst weiterwachsen? 30''er sind schon so groß, dass man den Stuhl nach hinten verschieben muss, oder dass man sich dahinter eine Couch aufstell kann um darauf sitzend zu zocken.
 
Zuletzt bearbeitet:
Welchen Markt? Hast du dir die Benchmarks zu Mirror's Edge oder Sacred 2 angesehen? Bei aktivierter Physik kommt selbst ein 4,0Ghz-Quad nicht über 3 fps hinaus. Die CPU kann vielleicht einfache, kleine Physikberechnungen durchführen, aber die aufwendigeren Effekte - und um die geht es bei diesem Streit - sind nur auf der GPU möglich, bzw. auf dem Grafikbeschleuniger.

1. Thema vernünftige Optimierung.

2. Ich habe die Benchmarks gesehen....
Es ging mir aber um die Frage des Marketings. In wie weit wollen CPU Hersteller heutzutage noch ein CPU Upgrade rechtfertigen????
Wegen der fehlenden Leistung jawohl nicht. Deshalb ist ein i7 auch kaum schneller in den Benchmarks, als ein CoreQuad.

2010 will Intel 6 - 8 Kerne auf den Markt werfen, wo jetzt noch nicht mal 4 richtig unterstützt werden.
Die Physik Berechnung wäre für die Intel Marketing Abteilung genau das Richtige. Hier ist noch benötigtes Leistungspotential, was verarbeitet werden kann und die meisten Gamer werden es akzeptieren.

Genau wegen Larrabee wird Intel bis dahin nicht Havok öffnen für GPUs, denn wo könnten sie noch Gewinne abschöpfen, als im CPU Bereich, wenn keine Graka vorhanden ist auf Intel Seite.


Vielleicht hat AMD nicht wegen Havok abgelehnt, sondern schon wegen diesem OpenCL-Projekt, das bald vorgestellt wird. Wozu was anderes übernehmen, wenn man auch was eigenes anbieten kann? ;)

Das was du mit DX11 meinst: - da kommt erst eine allgemeine Schnittstelle/API für GPUs.
Damit hat AMD/ATI aber noch keine Physik Engine......


PhysX lässt sich einfach auf der Grafikkarte mitberechnen, das ist bequemer; außerdem hat Nvidia die Mittel, PhysX-Unterstützung voranzutreiben --> "The way it's meant to be played"

Schon mal Cryostasis Benchmarks gesehen, mit Physx und DX10 max läuft das erst ab einer GTX 260. Alle anderen Grafikkarten bleiben da außen vor.
Also für mich sieht das dann so aus, als ob die Grafikkarte da überfordert ist mit beiden Bilder + Physx. Das meinte ich mit steigender Leistung und kleineren Grafikkarten - Update Zyklen.
Dem Kunden bleibt nix anderes übrig als ein Grafikkarten Update oder ein SLI (für Physx) System.

mfg


Kosake
 
Zuletzt bearbeitet:
OK, aus rein marketingtechnischer Sicht hast du wohlmöglich recht. Aber spätestens wenn Larrabee auf den Markt kommt (sollte es jemals auf den Markt kommen...) wird Intel auf den Zug der GPU-Beschleunigung aufspringen. Das wäre dann nur eine Frage der Zeit.

Die Cryostasis-Benches habe ich tatsächlich nicht gesehen, aber es ist noch eines von wenigen Spielen, die GPU-PhysX verwenden. Ich könnte mir vorstellen, dass PhysX sich im Laufe der nächsten Jahre vor allem auf Spiele etabliert, die nicht allzu sehr auf aufwendige Grafik setzen. Darüber kann man jedoch noch keine sichere Aussage treffen.

Das was du mit DX11 meinst: - da kommt erst eine allgemeine Schnittstelle/API für GPUs.
Damit hat AMD/ATI aber noch keine Physik Engine......
Eben, deswegen arbeitet AMD bereits an dieser Engine, damit sie auf DX11-GPUs anwendbar sein wird.
 
...Intel auf den Zug der GPU-Beschleunigung aufspringen. Das wäre dann nur eine Frage der Zeit.

Genau das meinte ich ja
- Wenn sie zuvor HAVOK für GPU Physik freigeben schiessen sie sich ins eigene Bein und die Gamer werden weniger auf 2 Kerne+ oder 2010 sogar auf 8 Kerne setzen.
Mit Larrabee beginnt die Marktsituation für Intel neu.

Die Cryostasis-Benches habe ich tatsächlich nicht gesehen, aber es ist noch eines von wenigen Spielen, die GPU-PhysX verwenden. Ich könnte mir vorstellen, dass PhysX sich im Laufe der nächsten Jahre vor allem auf Spiele etabliert, die nicht allzu sehr auf aufwendige Grafik setzen.

Ich denke, dass Physx auch ne Menge Leistung schluckt. Glaube in Mirror's Edge waren es etwa 20 FPS.
Und gerade mit Mirror's Edge hat sehr gut funktioniert, da es noch auf der betagten UT3 Engine (kein hardwarefressendes DX10 etc.) basierte.

Sobald aber grafikanfordernde Games mit Physx gekoppelt werden, wird es mit der Leistung eng und viele sind zB. mit ihrer neu gekauften GTX 250/9800gtx am Ende (unter 30fps).

PS3 Titel kombiniert mit Physx werden auch einiges fordern, besonders wenn sie nicht optimal portiert werden. Bei den Wii Titeln mache ich mir da weniger Sorgen:lol::D

Eben, deswegen arbeitet AMD bereits an dieser Engine, damit sie auf DX11-GPUs anwendbar sein wird.

Mit einer komplett neuen Engine, das wird schwierig.
Insbesondere wo man aus der Vergangenheit weiß, dass ATI/AMD weniger Geld für Marketing ("Firmen - Überzeugung", Projekte etc.) ausgeben, als NV und sie fangen bei NULL an, im Gegensatz zu NV (Agiea Einkauf).

mfg

Kosake
 
Mit einer komplett neuen Engine, das wird schwierig.
Insbesondere wo man aus der Vergangenheit weiß, dass ATI/AMD weniger Geld für Marketing ("Firmen - Überzeugung", Projekte etc.) ausgeben, als NV und sie fangen bei NULL an, im Gegensatz zu NV (Agiea Einkauf).

Nicht, wenn sie sich tatsächlich auf Havok stützen können. DX11-GPUs sind noch nicht mal angekündigt, und bis sie sich halbwegs verbreitet haben... Wohlmöglich ist Larrabee bis dahin schon veröffentlicht, dann wird die Engine Intel keine Existenzprobleme mehr bereiten. Selbst wenn es nicht so sein sollte: Intel kann als Eigner von Havok das ganze noch hinauszögern, wenn es sein muss.
Ist es erst mal soweit, wird diese neue Engine eine wesentlich breitere Basis haben als PhysX, da sie - theoretisch - auf allen DX11-GPUs + Larrabee laufen wird, das kommt Spieleprogrammierern entgegen. Da braucht ATI gar nicht so viel in Marketing zu investieren.

PS3 Titel kombiniert mit Physx werden auch einiges fordern, besonders wenn sie nicht optimal portiert werden.
Spannende Frage. Wie gut wird der Cell-Prozessor mit (auch schlecht programmiertem) PhysX umgehen können? An die PS3-GPU denke ich erst gar nicht. :D
 
Zuletzt bearbeitet:
Ist es erst mal soweit, wird diese neue Engine eine wesentlich breitere Basis haben als PhysX, da sie - theoretisch - auf allen DX11-GPUs + Larrabee laufen wird, das kommt Spieleprogrammierern entgegen. Da braucht ATI gar nicht so viel in Marketing zu investieren.

Das ist die Frage, ob ATI/AMD wirklich eine Open Scource Physik Engine anpeilen.
Physx ist auch freiprogrammierbar in dem Sinn;)
Es wird genauso gut über CUDA oder der DX11 API oder zu guter Letzt auch mit der CPU laufen. Von daher ist es rein theoretisch auch möglich alle Grafikkarten abzudecken.

Wenn man es so betrachtet deckt NV ab der GF 8 Generation jede Grafikkarte ab, wobei ATI/AMD erst mit DX11 dabei ist, wegen der API.

Spannende Frage. Wie gut wird der Cell-Prozessor mit (auch schlecht programmiertem) PhysX umgehen können? An die PS3-GPU rede ich erst gar nicht. :D
Der Cell Prozessor ist auf mehrere Threads ausgelegt und übernimmt sowieso die meiste Arbeit bei der PS3. Soweit ich mich noch Recht erinnere werkelt eine GF7 basierte Karte in der PS3. Von daher ist sie schon theorethisch nicht in der Lage ohne Unified Shader Physx zu berechnen.


mfg

Kosake
 
Ist es erst mal soweit, wird diese neue Engine eine wesentlich breitere Basis haben als PhysX, da sie - theoretisch - auf allen DX11-GPUs + Larrabee laufen wird, das kommt Spieleprogrammierern entgegen. Da braucht ATI gar nicht so viel in Marketing zu investieren.
Nur das PhysX-GPUs noch auf gut 2-3 Jahre den größeren Marktanteil haben werden als DX11-GPUs. Zudem die Gruppe der PhysX-GPUs ja auch noch mit jeder DX11-Nvidiakarte wächst.

Aber ich bin mal gespannt, was ATI denn nun konkret ankündigt.
 
Nur das PhysX-GPUs noch auf gut 2-3 Jahre den größeren Marktanteil haben werden als DX11-GPUs. Zudem die Gruppe der PhysX-GPUs ja auch noch mit jeder DX11-Nvidiakarte wächst.

Gerade mit der GF 8 ist eine große Basis entstanden, da zu dem Zeitpunkt nix vergleichbares von der Leistung von ATI/AMD kam.
Das relativiert sich erst mit der Zeit. Denn viele kaufen sich nicht alle 12 Monate eine neue Grafikkarte.

Aber ich bin mal gespannt, was ATI denn nun konkret ankündigt.

Egal was sie machen und anstreben, es wird verdammt schwierig, denn NV hat nicht nur mit dem Ageia Einkauf das nötige KnowHow, sondern auch einen großen Zeitvorsprung, den sie clever nutzen (PS3 und Wii für Physx gewonnen etc.). Zudem erstreckt sich NV's GPU Streaming nicht nur auf Physx, sondern hat mit Power DVD, Nero, Photoshop etc. auch andere Programme im Gesamtpacket, wo der Kunde Nutzen zieht.

mfg


Kosake
 
Das ist die Frage, ob ATI/AMD wirklich eine Open Scource Physik Engine anpeilen.
Physx ist auch freiprogrammierbar in dem Sinn;)
Es wird genauso gut über CUDA oder der DX11 API oder zu guter Letzt auch mit der CPU laufen. Von daher ist es rein theoretisch auch möglich alle Grafikkarten abzudecken.
Stimmt, daran habe ich nicht gedacht. PhysX lässt sich von der CPU berechnen, theoretisch vielleicht auch von Larrabee, welches nicht allzu anders aufgebaut ist? Intel braucht wohlmöglich keine weitere Physik-API? Auch wenn man Nvidia erst mal dazu überreden müsste, die Lizenz herauszurücken... :D
So oder so, es ist noch alles offen. Warten wir erst mal diese ominöse Präsentation ab, und schauen was die Zeit so mit sich bringt. Hauptsache kein Standard-Wirrwarr. :)
 
Intel braucht wohlmöglich keine weitere Physik-API? Auch wenn man Nvidia erst mal dazu überreden müsste, die Lizenz herauszurücken... :D

AMD/ATI wurde es kostenlos angeboten - aber auf Intel, ist NV überhaupt nicht gut zu sprechen, wegen "Ion Plattform Streit".

Könnte sie gegen die X86 Lizenz tauschen:lol:
Ich denke das passt optimal zu NV Plänen eine CPU zu entwickeln.
Mal sehen was die Zukunft bringt.


mfg

Kosake
 
Genau das meinte ich ja
- Wenn sie zuvor HAVOK für GPU Physik freigeben schiessen sie sich ins eigene Bein und die Gamer werden weniger auf 2 Kerne+ oder 2010 sogar auf 8 Kerne setzen.

Wer sagt, dass Havok ausschließlich GPU-Physik unterstützen wird?
Im Moment sieht sich Intel einer erstaunlich schnell wachsenden Zahl von Spielen mit PhysX gegenüber und da Nvidia keinerlei Bedürfniss hat, die PhysX-CPU Lösung zu optimieren, werden Intel-Produkte in denen weiterhin abymsmal abschneiden.
Um CPU-Physik weiterhin zu etablieren, müssen sie eine Engine anbieten, die eine gut optimierte CPU-Unterstützung bietet. Diese muss aber auch eine breite Nutzung/Unterstützung mit sich bringen, muss im direkten Zweikampf gegen PhysX also auch Beschleunigerkarten unterstützen -> Havok(FX).
 
Zurück