AMD Navi: Raytracing wird auf der E3 ein Thema sein

Für RT verpulvert man sehr viel Rechenleistung u. DIE-Fläche , für ein paar % bessere Optik.

Was überhaupt bei flotten Shootern meiner Meinung umsonst ist ...bewundert man da die Gegend und derem Schattenwurf ?

Technisch: Ob es dafür überhaupt RT Cores braucht ? Vielleicht kann man es auch mit den normalen Uni-shadereinheiten berechnen..hmm
Man darf gespannt sein,was da noch kommt :)
 
Sag mal wovon träumst du des Nachts :rollen: ?

Von einer Karte die das neue Metro in 4K, vollen HDR Umfang und Ultra Einstellungen in 50-60 Fps darstellen kann.

Ich hoffe fest das Nvidia mit Ampere ein echtes Brett hin legt und soweit ich weiß sind die Raytracing Kerne gar nicht so groß gewesen.
 
Zuletzt bearbeitet:
lol. der zug mag zwar abgefahren sein, aber hatte wohl direkt auf den ersten paar metern nen kapitalen motorschaden.
Auch wenn du den faktischen Fehler korrigierst, ist der Vergleich nicht besser.

Immerhin zwingt dieser (deiner Behauptung nach) liegen gebliebene Zug, dass sich AMD bei der Präsentation ihres neuen Produktes dazu äußern, was mit einem von diesem neuen Produkt gar nicht unterstützen Feature demnächst mal passieren könnte.

Frage mich gerade, ob es das überhaupt mal gab, in der GPU-Geschichte. Mir fällt kein Beispiel ein, in dem ein IHV von einem von der Konkurrenz unterstützten Feature gesprochen hat, ohne dass das eigene Produkt das auch unterstützt. Nein, da fällt mir kein Beispiel ein.

Ich glaube schon das AMD auch Intensiv daran arbeitet.. die sind doch bei Microsoft DirectX 12 RT Entwicklung voll mit einbezogen worden.
Was hat AMD denn genau geleistet?

Bis man eine vernünftige Anzahl RT Titel kaufen kann gibts die 3000er Reihe von NV und mit der 2000er Reihe ist dann wieder altes Eisen.
Mit der GTX 20er Reihe drehst du die DXR-Details eben ein oder zwei Stufen runter. Bei AMD bleibt er immer bei "Off".

Sofern Navi Raytracing wirklich per RT Kerne oder co. vorstellt
Tun sie ja nicht, sie reden ja nur von RT. Die Aussage ist sehr eindeutig, was das angeht.
 
Klar, RT kann von "jeder" Karte genutzt werde, muß halt nur die Software stimmen und die Leistung der Karte. Wenn das laufen soll, dann muß das eh ein "kartenoffener Standard" werden. Sprich, ist egal bei welchen Hersteller ich die Karte kaufe, der Softwarestandard muß halt auf allen Karten optimiert laufen.

Und das Geschichtchen, daß dieser Standard von Nvidia "eingeführt" wurde, das kann nach der peinlichen Abzocke auch getrost zu den Akten gelegt werden.
 
was AMD evtl schon, mit mikrosoft zusammen, in der entwicklun geleistet hat, werden wir wohl wenn überhaupt, erst erfahren wenn es produkte mit DXR gibt.

meine ansicht: wenn dann wird es sowas wie umschaltbare cores geben, die entweder 'normales rendering' machen oder eben DXR.

wirklich was bringen wird es aber erst wenn es auch die meisten spiele implementiert haben und das dürfte noch 2 jahre dauern.
dazu kommt dann noch das wohl noch einiges optimiert werden muss was diese technik angeht, sah man ja beim genaueren hinsehen schon bei den titeln die raytracing schon haben.
auch das braucht wohl noch rund 2 jahre.
schlussendlich wird ein raytraicing (für amd) wohl zwar in der future-liste stehen müssen, richtig gut wird es aber erst später(letzteres gillt für amd und nv).
somit werden grafikkarten mit raytracing erst in der übernächten generation wirklich interessant, vorher greift man besser zu den 'normalen grafikkarten' ohne raytracing, das spart ne menge frust und geld (jedenfalls mindestens was nv-karten angeht).

nicht umsonst, sind bei NV die 10xxer karten ja sehr schnell EOL geworden, man wird also wenn man was schnelles haben will gezwungen diese 20xx karten zu kaufen.
sonst würde denen zu viele die alte gen kaufen.

unabhängig davon das diese karten eh nicht in meinem preisrahmen laufen und die kleinen karten nicht genug raytracing-leistung bieten können, wenn überhaupt, werde ich abwarten was navi zu leisten vermag, wobei raytracing dabei völlig uninteressant ist.
mal sehen was da dann bei rum kommt.
 
Zuletzt bearbeitet:
Und das Geschichtchen, daß dieser Standard von Nvidia "eingeführt" wurde, das kann nach der peinlichen Abzocke auch getrost zu den Akten gelegt werden.
Der Standard heißt "DXR" und wurde nicht von NVIDIA eingeführt, sondern von Microsoft.

NVIDIA ist nur der erste - und aktuell einzige IHV - der Support für DXR bietet. Ersetze DXR einfach durch "DirectX 13". Das gleich in grün.
 
Auch wenn du den faktischen Fehler korrigierst, ist der Vergleich nicht besser.

Immerhin zwingt dieser (deiner Behauptung nach) liegen gebliebene Zug, dass sich AMD bei der Präsentation ihres neuen Produktes dazu äußern, was mit einem von diesem neuen Produkt gar nicht unterstützen Feature demnächst mal passieren könnte.

Frage mich gerade, ob es das überhaupt mal gab, in der GPU-Geschichte. Mir fällt kein Beispiel ein, in dem ein IHV von einem von der Konkurrenz unterstützten Feature gesprochen hat, ohne dass das eigene Produkt das auch unterstützt. Nein, da fällt mir kein Beispiel ein.


Was hat AMD denn genau geleistet?


Mit der GTX 20er Reihe drehst du die DXR-Details eben ein oder zwei Stufen runter. Bei AMD bleibt er immer bei "Off".


Tun sie ja nicht, sie reden ja nur von RT. Die Aussage ist sehr eindeutig, was das angeht.
Wow da schmeißt du mal richtig viel Zeug durcheinander. DXR ist eine Erweiterung von DX12 und in dem Konsortium, das das entwickelt hat, sitzt AMD mit drin. Microsoft ist nicht Nvidia. Die entwickeln keine Schnittstellen, die nur auf der Hardware eines Herstellers laufen.

RTX ist das was du meinst und das ist ein Alleingang von Nvidia, der in wenigen Jahren so tot sein wird wie CUDA und GPU-PhysX, weil DXR mittels herstellerübergreifender Software realisiert werden wird. Und eben dafür wird AMD Unterstützung bieten. Das kann mittels separater Einheiten in der GPU oder einem dedizierten Chip oder mittels Workload Aufteilung zwischen klassischen CPU Threads und klassischen GPU Shadern bewerkstelligt werden.
 
Witzig ist das PhysX heute zum Standard in allen großen Game-Engines geworden ist, aber halt per CPU, und nicht wie es Nvidia wollte nur auf ihren GPUs.
Den Kauf von Ageia hätte man sich also sparen können.
Aber Nvidia hat es wenigstens in den letzten 10 Jahren versucht GPU-PhysX durchzusetzen, ist dann aber kläglich eingeknickt. ^^
 
RTX ist das was du meinst und das ist ein Alleingang von Nvidia
RTX ist nichts weiter als die HW-implementierung von DXR-Beschleunigung auf der einen und Software-Bibliotheken auf der anderen Seiten.

Der "Alleingang" von NVIDIA besteht darin, dass man DXR bereits unterstützt und HW-beschleunigt ausführen kann. Genauso, als würde Turing bereits DX13 supporten.

Und eben dafür wird AMD Unterstützung bieten.
Das sollen sie erstmal zeigen, bisher kommt von AMD nur heiße Luft. Wird auf der E3 ja auch wieder so sein.
 
lol. der zug mag zwar abgefahren sein, aber hatte wohl direkt auf den ersten paar metern nen kapitalen motorschaden. :rollen:

Och da kommen dieses Jahr wohl noch 13 Spiele mit RT, demnächst Wolfenstein, das wird fett.

Weder Nvidia- noch AMD-Karten haben aktuell genug Leistung für RT.

Bullshit, Nvidia Karten haben eine sehr hohe RT Leistung, das sieht man vor allem in Aufdröselungen wann welche Einheiten rechnen. Es braucht bessere Implementierungen, Global Illumination, Verschattung und Spiegelungen kann man gleichzeitig performant realisieren, mit 1 bounce oder gar 2.
 
Zuletzt bearbeitet:
AMD wird mit Raytracing auch keine Marktanteile dazu gewinnen.
Noch ist RT in den Kinderschuhen und absolut irrelevant.

Für Sony scheint das ein Thema zu sein, und vielleicht auch für MS, um Kunden vom PC zu den Konsolen zu holen.
 
Wow da schmeißt du mal richtig viel Zeug durcheinander. DXR ist eine Erweiterung von DX12 und in dem Konsortium, das das entwickelt hat, sitzt AMD mit drin. Microsoft ist nicht Nvidia. Die entwickeln keine Schnittstellen, die nur auf der Hardware eines Herstellers laufen.

nVidia hat Microsoft bei der Implementierung von DXR in DirectX 12 ebenso maßgeblich unterstützt. Die sind in demselben "Konsortium" mit drin. Und in Anbetracht des "first to market" behaupte ich jetzt auch mal, dass diese Unterstützung von nVidia weitaus umfangreicher war, als das, was AMD beigetragen hat. nVidia sind für ihren hervorragenden (Software-)Support bekannt. Die Unterstützung für Spieleentwickler und Schnittstellenentwickler gilt als vorbildlich. nVidia sind die ersten die DirectX Ray-Tracing (DXR) in Hardware vom Start weg unterstützt haben. Ebenso hat nVidia die Spielehersteller, die bereits DXR Spiele am Markt haben, nach Kräften supported. Das ist deren Stärke und deswegen arbeiten Entwickler für die PC-Versionen gerne mit nVidia zusammen.

RTX ist das was du meinst und das ist ein Alleingang von Nvidia, der in wenigen Jahren so tot sein wird wie CUDA und GPU-PhysX, weil DXR mittels herstellerübergreifender Software realisiert werden wird. Und eben dafür wird AMD Unterstützung bieten. Das kann mittels separater Einheiten in der GPU oder einem dedizierten Chip oder mittels Workload Aufteilung zwischen klassischen CPU Threads und klassischen GPU Shadern bewerkstelligt werden.

Völliger Quatsch. Der Blödsinn, dass RTX irgendwas "kanz kanz pöööhses" Proprietäres und ein Gegenspieler zu DXR sei, hat sich bei AMD Fanboys allerdings irgendwie als "Fakt" verselbständigt. RTX ist das Ray-Tracing Backend bei nVidia. Dies ist nicht alternativ zu DXR zu sehen, sondern DXR wird genauso per RTX angesteuert wie ein Entwickler auch direkt die RTX Bibliotheken ansteuern könnte. Es kommt letztlich auf die Implementierung an, wie man die Ray-Tracing Cores anspricht. Nochmals: nVidia war maßgeblich an der Entwicklung von DXR beteiligt.

Hier:

DirectX Raytracing ist die API, doch muss es auch ein Backend der GPU-Hersteller geben, das sie ansprechen kann. Nvidia hat das passende Software-Backend bereits vorgestellt, das auf den Namen RTX hören wird. Nvidia hat nach eigenen Angaben eng mit Microsoft zusammen gearbeitet, um RTX für DXR anzupassen

Microsoft: DirectX 12 erhaelt Raytracing-API DXR fuer Hybrid-Rendering - ComputerBase
 
für Irgendetwas müssen ja die 16-64 Kerne einer neuen AMD CPU gut sein.... in Verbindung mit der neuen AMD GPU Generation.:schief:
 
RTX ist das was du meinst und das ist ein Alleingang von Nvidia, der in wenigen Jahren so tot sein wird wie CUDA und GPU-PhysX, weil DXR mittels herstellerübergreifender Software realisiert werden wird.

GCN ist dann auch ein Alleingang, sowie Freesync dann wohl der totale Alleingang.
RTX ist die Hardware bzw. der Treiber der in der Lage ist DirectX 13 alias DXR auszuführen.

GTX war wohl auch ein Alleingang...:D lächerlich.
Und eben dafür wird AMD Unterstützung bieten. Das kann mittels separater Einheiten in der GPU oder einem dedizierten Chip oder mittels Workload Aufteilung zwischen klassischen CPU Threads und klassischen GPU Shadern bewerkstelligt werden.

Also AMDs RDNA Alleingang, diese Verbrecher!
 
AMD schaut wohl nur auf die Rücklichter des schon abgefahrenen Raytracing-Zugs, wenn man nur drüber "reden" möchte. Mit Navi wird es dann wohl erstmal nix mit HW-beschleunigtem DXR.

Vielleicht dann 2021/2022? Mal sehen.
Ein Zug fast ohne Fahrgäste! Is‘ ja nett, wenn der irgendwann auf dem Mond ankommt, ist das bissl Kroppzeug auch gleich entsorgt.
 
Gerade im Profi Segment nimmt aber Nvidias RT Fahrt auf
Nicht wirklich. Visualisierungen in der Medizin sind recht spezifisch. Nvidias RT ist da im Moment nicht viel mehr als ein Tropfen auf den heissen Stein. Visualisierungsmodelle basierend auf Raytracing gibts übrigens auch in der Medizin schon länger. Wobei dort aufgrund der vereinfachten Darstellung eher auf Raycasting zurückgegriffen wird.


Dabei muss man unterscheiden zw. dem einfachen 7nm bei TSMC und dem 7nm EUV bei Samsung.
Die Radeon VII und auch Navi sind nur mit dem einfachen 7nm gefertigt.
Als Ergänzung, TSMC hat auch noch einen besseren 7nm Prozess mit EUV, 7+nm. Der sollte dann für Produkte im nächsten Jahr genutzt werden. Wie Zen3 oder eventuell auch Navi 20.


Bei den 7nm sollte man sich eher fragen:
Radeon VII läuft bereits mit 7nm, GTX 1080 Ti ist 16nm. Ratet mal welche schneller ist und welche mehr Strom verbraucht.....
Man kann beides nicht wirklich vergleichen. Daher sollte man auch mal etwas über den Tellerrand schauen. Die Radeon VII ist halt einfach nur eine umgelabelte Profi-Karte, zwar mit besserem Feature Set, aber ohne signifikante Änderungen an der Mikroarchitektur im Vergleich zu Vega 10 und daher auch alles andere als eine optimale Lösung fürs Gaming. Zumal dort die einfache 7nm Fertigung von TSMC genutzt wurde, die zwar eine deutliche Flächeneinsparung ermöglicht, aber nicht so viel energieeffizienter ist wie man vielleicht denkt. Die Radeon VII liefert vor allem hohe SP/DP Performance für GPGPU. In solchen Disziplinen hat selbst die GTX 2080 Ti oft nicht den Hauch einer Chance, gerade bei DP:
Sandra-Scientific-FP32-Single-Precision-GPU-Performance-AMD-Radeon-VII.png Sandra-Financial-FP32-Single-Precision-GPU-Performance-AMD-Radeon-VII.png
Sandra-2018-SP3a-Scientific-FP64-Double-Precision-GPU-Performance-AMD-Radeon-VII.png Sandra-2018-SP3a-Financial-FP64-Double-Precision-GPU-Performance-AMD-Radeon-VII.png
Von nichts kommt halt auch nichts. Genau deswegen wurde ja RDNA entwickelt, eine Mikroarchitektur die nicht mehr auf GCN basiert und für Gaming optimiert wurde.


RTX ist die Hardware bzw. der Treiber der in der Lage ist DirectX 13 alias DXR auszuführen.
RTX wird von nVidia selbst als Plattform bezeichnet. Und dazu gehört nicht nur Hardware, sondern auch Software wie APIs und SDKs. Vermutlich meinte KrHome das. Und da hat er nicht ganz unrecht. Als eigenständige Software hat RTX keine grosse Zukunft. Ein grundsätzliches Problem von proprietären Lösungen, die auf den Massenmarkt abzielen, siehe AMDs Mantle. Und da Microsoft diesmal recht fix war mit einer DirectX basierten Schnittstelle für Raytracing wird es nVidia auch nicht so durchsetzen können wie CUDA, sofern sie das überhaupt vorhaben. Auch Vulkan (ehem. Mantle) wird Lösungen für Raytracing bieten bzw tut es schon.


@topic

Einige haben vergessen oder womöglich gar nicht mitbekommen, dass an Raytracing schon lange geforscht wird. AMD hatte dazu schon vor 10 Jahren Echtzeit-Rendering gezeigt, eine Mischung aus Voxel und Raytracing Technik. Intel hatte damals an einer Raytracing-Engine für CPUs gearbeitet, die ein Spiel komplett rendern konnte. Gezeigt wurde das anhand von Quake. Selbst in der Demoszene gab es immer mal wieder nette Umsetzungen, natürlich stark vereinfacht.

Damals wie auch heute sind das trotzdem nicht viel mehr als Tech-Demos. Daran ändert auch nVidias RTX nichts. Solange weiterhin auch herkömmliche Rasterizer genutzt werden müssen, bleibt es nur Stückwerk. Raytracing wird erst dann interessant, wenn 3D Szenen damit komplett gerendert werden können, logischerweise in Echtzeit mit ausreichend FPS. Davon sind wir aber noch weit entfernt. GPUs sind dafür immer noch deutlich zu schwach. Und das wird sich auch in den kommenden 2-3 Jahren nicht ändern. Daher tut AMD gut daran, hier nichts zu überstürzen. Diese Ressourcen können im Moment sinnvoller genutzt werden.
 
Zurück