AMD Navi: Raytracing wird auf der E3 ein Thema sein

Ein Zug fast ohne Fahrgäste! Is‘ ja nett, wenn der irgendwann auf dem Mond ankommt, ist das bissl Kroppzeug auch gleich entsorgt.
Gilt das, was ich hier im ersten Absatz schrieb:
AMD Navi: Raytracing wird auf der E3 ein Thema sein

Man kann beides nicht wirklich vergleichen. Daher sollte man auch mal etwas über den Tellerrand schauen. Die Radeon VII ist halt einfach nur eine umgelabelte Profi-Karte, zwar mit besserem Feature Set, aber ohne signifikante Änderungen an der Mikroarchitektur im Vergleich zu Vega 10 und daher auch alles andere als eine optimale Lösung fürs Gaming.
Ach jetzt auf einmal ist Vega10 die gleiche Mikroarchitektur wie Vega20, vor ein paar Tagen hast du mich dafür noch als Idioten dargestellt, danke für die späte Richtungstellung :stupid:

Deine Benchmarks haben übrigens nichts mit dem Nutzungsfeld einer Radeon VII oder 2080Ti zu tun: Gaming. Und selbst deine Cherrypicking "Guck mal wie toll die Radeon VII" Benches zeigen ja häufig genug die 2080Ti vorne. Also mitnichten ist die RadeonVII mit "passender" Software per se vorne.

RTX wird von nVidia selbst als Plattform bezeichnet.
NVIDIA nutzt "RTX" als Über-Marketing für alles in Richtung Raytracing. Für die GeForce-Reihe und für die SDK und Software-Libs.

Und dazu gehört nicht nur Hardware, sondern auch Software wie APIs und SDKs. Vermutlich meinte KrHome das. Und da hat er nicht ganz unrecht. Als eigenständige Software hat RTX keine grosse Zukunft.
Natürlich ist das falsch, weil RTX - die Software - nichts weiter als DXR ist. Würde AMD heute DXR-Support bieten, könnten auch die RTX-Spiele diese Schnittstelle nutzen. RTX ist nichts weiter, als auf DXR-basierter Bibliotheken.

So wie auch Gameworks-Bibliotheken über DX auf AMD-Grafikkarten lief.

Und da Microsoft diesmal recht fix war mit einer DirectX basierten Schnittstelle für Raytracing wird es nVidia auch nicht so durchsetzen können wie CUDA, sofern sie das überhaupt vorhaben. Auch Vulkan (ehem. Mantle) wird Lösungen für Raytracing bieten bzw tut es schon.
What? NVIDIA hat die DX-Erweiterung federführend mitentwickelt :stupid:

Vulkan bietet übrigens RT-Support, weil ihn NVIDIA Hinzugefügt hat:
Introduction to Real-Time Ray Tracing with Vulkan | NVIDIA Developer Blog

Daher tut AMD gut daran, hier nichts zu überstürzen. Diese Ressourcen können im Moment sinnvoller genutzt werden.
Kann man gern so sehen, dann sollte man sich nur als AMD-Fan nicht wundern, wenn allgemeines Gelächter herrscht, wenn sich AMD als "Innovationsführer" oder ähnliches sieht. Das ist dann nämlich einfach nur peinlich.
 
What? NVIDIA hat die DX-Erweiterung federführend mitentwickelt :stupid:
Dafür hätte ich gern mal eine Quele. MS wird wohl selbst federführend gewesen sein.
Vulkan bietet übrigens RT-Support, weil ihn NVIDIA Hinzugefügt hat:
Introduction to Real-Time Ray Tracing with Vulkan | NVIDIA Developer Blog
Es handelt sich dabei um eine Preview für Entwickler. (Steht so im von dir verlinkten Artikel) Khronos ist nicht umsonst um ein Konsortium aus mehreren Herstellern.
 
Nicht wirklich. Visualisierungen in der Medizin sind recht spezifisch. Nvidias RT ist da im Moment nicht viel mehr als ein Tropfen auf den heissen Stein. Visualisierungsmodelle basierend auf Raytracing gibts übrigens auch in der Medizin schon länger. Wobei dort aufgrund der vereinfachten Darstellung eher auf Raycasting zurückgegriffen wird.
Ist auch eine Form des RayTracing und kann genauso mittels der RT-kerne beschleunigt werden.




Man kann beides nicht wirklich vergleichen. Daher sollte man auch mal etwas über den Tellerrand schauen. Die Radeon VII ist halt einfach nur eine umgelabelte Profi-Karte, zwar mit besserem Feature Set, aber ohne signifikante Änderungen an der Mikroarchitektur im Vergleich zu Vega 10 und daher auch alles andere als eine optimale Lösung fürs Gaming. Zumal dort die einfache 7nm Fertigung von TSMC genutzt wurde, die zwar eine deutliche Flächeneinsparung ermöglicht, aber nicht so viel energieeffizienter ist wie man vielleicht denkt. Die Radeon VII liefert vor allem hohe SP/DP Performance für GPGPU. In solchen Disziplinen hat selbst die GTX 2080 Ti oft nicht den Hauch einer Chance, gerade bei DP:
Anhang anzeigen 1048063Anhang anzeigen 1048064
Anhang anzeigen 1048065Anhang anzeigen 1048066
Von nichts kommt halt auch nichts. Genau deswegen wurde ja RDNA entwickelt, eine Mikroarchitektur die nicht mehr auf GCN basiert und für Gaming optimiert wurde.
Mir geht es hier aber eben auch um das was die meisten hier machen - Spielen. Außerhalb dessen seiht es natürlich anders aus, aber für Bereiche in denen Richtigkeit wichtig ist (wie SiSoft Financial andeutet) fällt die karte trotzdem durch - ohne ECC wird das ding nicht mal schief angeschaut, da muss man schon zu radeon instinct greifen.



RTX wird von nVidia selbst als Plattform bezeichnet. Und dazu gehört nicht nur Hardware, sondern auch Software wie APIs und SDKs. Vermutlich meinte KrHome das. Und da hat er nicht ganz unrecht. Als eigenständige Software hat RTX keine grosse Zukunft. Ein grundsätzliches Problem von proprietären Lösungen, die auf den Massenmarkt abzielen, siehe AMDs Mantle. Und da Microsoft diesmal recht fix war mit einer DirectX basierten Schnittstelle für Raytracing wird es nVidia auch nicht so durchsetzen können wie CUDA, sofern sie das überhaupt vorhaben. Auch Vulkan (ehem. Mantle) wird Lösungen für Raytracing bieten bzw tut es schon.
uhm.. RTX ist Nvidias eigene Entwicklung mit einem ziemlich Portfolio an Funktionalität, die RT-Cores sind dazu eine Hardware-Implementierung die verschiedene Schnittstellen angesprochenw erdne kann - derzeit Nvidia-Optix (das gibt es schon sehr lange), DXR (directX 12 Erweiterung) oder Vulkan.
Es wird sich also sehr wahrscheinlich nicht nur gut halten sondern auch durchsetzten - mal ganz davon abgesehen das die industrie-Software es wo relevant sowieso schon Beherrscht, sprich so gut wie alle großen CAD, Rendering und Modelierungprogramme.
Das einzige was Microsoft hier zu sagen hat is wie es mit DXR weiter geht, aber auf RTX haben die keinen Einfluss.

Damals wie auch heute sind das trotzdem nicht viel mehr als Tech-Demos. Daran ändert auch nVidias RTX nichts. Solange weiterhin auch herkömmliche Rasterizer genutzt werden müssen, bleibt es nur Stückwerk. Raytracing wird erst dann interessant, wenn 3D Szenen damit komplett gerendert werden können, logischerweise in Echtzeit mit ausreichend FPS. Davon sind wir aber noch weit entfernt. GPUs sind dafür immer noch deutlich zu schwach. Und das wird sich auch in den kommenden 2-3 Jahren nicht ändern. Daher tut AMD gut daran, hier nichts zu überstürzen. Diese Ressourcen können im Moment sinnvoller genutzt werden.
Es gab schon vor 20 Jahren voll geraytracete Spiele. Wolfenstein 3D nutzt RayCasting - Raytracing ohne weitergehende Strahlen.
Und die volle Berechnung von Echtzeitlicht mit Schatten und GI und das gnaze als einfaches "wirfs rein und es geht" ist mehr als ausreichend das man es nicht als "stückwerk" abtun kann - vor allem wenn man sich ansieht wie viel Aufwand es sonst ist Beleuchtung gut hinzubekommen. (Natürlich mit dem Nachteil das ohne die Hardwarebeschleunigung der Rechenaufwand das ganze dann unspielbar machen würde).
 

Doch, ganz genau passiert gerade, sowie RT jetzt auch in Spielen deutlich an Fahrt aufnimmt.

Daher tut AMD gut daran, hier nichts zu überstürzen. Diese Ressourcen können im Moment sinnvoller genutzt werden.

Das glaube ich kaum, Raytracing ist das next big thing, auch wenn nur teilweise umgesetzt.
AMD tut gut daran bereits mit Navi ein Beckend dafür anzubieten, ansonsten verkaufen sich die Karten schlechter.

Ansonsten sind deine Ausführungen alle total pro AMD, teils gelogen, und nein KR Home hat damit nicht recht und auch nicht das gemeint.
 
Zuletzt bearbeitet:
sowie Freesync dann wohl der totale Alleingang....
RTX ist die Hardware bzw. der Treiber der in der Lage ist DirectX 13 alias DXR auszuführen.

Inzwischen ist the holy Nvidia froh auch Freesync mit nutzen zu dürfen. (Es gibt immer noch keine preiswerten Gsync-HDR-Module)
WHAT!?
DX13, klingt ja mal obergeil. Das wird MS gleich so von Dir übernehmen!? (oder auch net= totaler Quark)

Ein Zug fast ohne Fahrgäste! Is‘ ja nett, wenn der irgendwann auf dem Mond ankommt, ..

YES,
Bis zu einem kompletten mainstreamtauglichen RT ist Es noch ein weiter Weg. SoTR hat nur ein paar Schatten mehr,
am BF V wurde auch ein paar Mal rumgefuddelt usw. (zuviel Blätter gehen net mit RT).
Hoffentlich wird die PS5 zeigen wieviel RT man wirklich braucht. (ala Crytek-Demo)

AMD tut gut daran bereits mit Navi ein Beckend dafür anzubieten, ansonsten verkaufen sich die Karten schlechter.
Ansonsten sind deine Ausführungen alle total pro AMD, teils gelogen, ...

Navi wird net unnützen Kram anbieten und sich gerade deswegen BESSER verkaufen.(als Turing mit zusammenfabulierten Verkäufen)
Becken gibts im Waschraum bei selbsternannten Experten, Backend bei GPU´s.
Höre mal bitte auf, anderen Leuten Lügen zu unterstellen. Ich für meinen Teil bin froh, das gruffi einen für Verbraucher verständlichen Post verfasst hat. (ohne DX13-Geschwurbel, wie Andere)
 
Zuletzt bearbeitet:
Inzwischen ist the holy Nvidia froh auch Freesync mit nutzen zu dürfen.

Adaptive Sync.
DX13, klingt ja mal obergeil. Das wird MS gleich so von Dir übernehmen!?

Flach.

am BF V wurde auch ein paar Mal rumgefuddelt usw. (zuviel Blätter gehen net mit RT).
Hoffentlich wird die PS5 zeigen wieviel RT man wirklich braucht. (ala Crytek-Demo)

Du hast bis heute nicht verstanden, dass Cryteks Methode nicht effizienter und Problembehaftet ist und schon seit 2012 existiert, Szenenwechsel oder schnelle Kameraschwenks benötigen massig Zeit.
 
DX13, klingt ja mal obergeil. Das wird MS gleich so von Dir übernehmen!? (oder auch net= totaler Quark)
DX13 war ein Vergleich, weil ein paar Leute ja offensichtlich hier im Forum nicht verstehen (wollen?), dass DXR nichts weiter als eine DX-Erweiterung ist.

Bis zu einem kompletten mainstreamtauglichen RT ist Es noch ein weiter Weg. SoTR hat nur ein paar Schatten mehr,
am BF V wurde auch ein paar Mal rumgefuddelt usw. (zuviel Blätter gehen net mit RT).
DXR ist in der UnrealEngine schon drin und es wird nicht mehr lange dauern, bis die Entwickler sich die Artistkosten für Schatten sparen werden und einfach DXR voraussetzen werde. Man sollte sich 2019 sicherlich keine GPU ohne DXR-Support mehr kaufen. Einfach rausgeschmissenes Geld.

Navi wird net unnützen Kram anbieten und sich gerade deswegen BESSER verkaufen.(als Turing mit zusammenfabulierten Verkäufen)
Oh da hat aber jemand sehr gut in seiner AMD-Bettwäsche geschlafen :lol:

Besser als Turing? Das wird angesichts der bekannten Faktenlage extrem schwer. Da müsste man schon den Preis deutlich reduzieren, um eine unattraktive 2070 (also ohne DXR und mit höherer Leistungsaufnahme) verkaufen zu können. Für den genannten Preispunkt von 499US$ (also identisch zur 2070), wird das nix.

Ich freu mich übrigens schon gerade auf dich, wenn ab 2 Uhr heute Nacht 8 GB in der 500€ Klasse völlig ok sein werden :-D

Das Halswenden und das herum gerudere morgen früh, wird herrlich werden :daumen:
 
Dafür hätte ich gern mal eine Quele. MS wird wohl selbst federführend gewesen sein.
So ist es. Auch wenn AMD und nVidia anscheinend bei der Entwicklung involviert waren. Dass DXR nur von nVidia "federführend mitentwickelt" wurde ist natürlich wieder mal eine dreiste Lüge.

Es handelt sich dabei um eine Preview für Entwickler. (Steht so im von dir verlinkten Artikel) Khronos ist nicht umsonst um ein Konsortium aus mehreren Herstellern.
Wenn ich das noch richtig in Erinnerung hab, ist das lediglich eine RTX spezifische Erweiterung von Nvidia für Vulkan. Wäre also belanglos für allgemeine Entwicklungen.


Ist auch eine Form des RayTracing und kann genauso mittels der RT-kerne beschleunigt werden.
Klar. Ändert aber halt nichts daran, dass der Nutzen von RTX im Moment relativ gering ist. Frag dich doch mal, warum es RTX bei den kleineren Geforces nicht gibt.

Mir geht es hier aber eben auch um das was die meisten hier machen - Spielen.
Eben deshalb sagte ich ja, auch mal über den Tellerrand schauen. Erst dann kann man besser einschätzen, warum eine Karte so ist wie sie ist. Ob du nun eine Vega VII als adäquate Gaming Karte siehst, ist dann nochmal ein anderes Thema.

Es wird sich also sehr wahrscheinlich nicht nur gut halten sondern auch durchsetzten
Nope.

Das einzige was Microsoft hier zu sagen hat is wie es mit DXR weiter geht, aber auf RTX haben die keinen Einfluss.
Müssen sie auch nicht. Denn der quasi Standard unter Windows ist/wird DXR, nicht RTX.

Es gab schon vor 20 Jahren voll geraytracete Spiele. Wolfenstein 3D nutzt RayCasting - Raytracing ohne weitergehende Strahlen.
Voll? Welche denn? Nenne mal paar Beispiele. Oder verwechselst du da was mit Voxel Spielen?


Doch, ganz genau passiert gerade
Bezogen auf RTX, nope.

Das glaube ich kaum, Raytracing ist das next big thing, auch wenn nur teilweise umgesetzt.
Sicherlich ist Raytracing eine interessante Technik und kann bisherige Rasterizer in Zukunft ersetzen. Dagegen hat doch auch niemand was gesagt. Nur "im Moment" ist Raytracing kaum nutzbar, weil eben die Hardware dafür noch nicht potent genug ist. RTX ist doch das beste Beispiel. Fahrt nimmt damit noch gar nichts auf. Auch wenn es sich einige einreden wollen. Im Moment ist erstmal wichtig, Softwarestrukturen für Raytracing zu schaffen. Denn ohne die wird auch die potenteste Hardware nix reissen. Und da sind Unternehmen wie Microsoft, die Khronos Group und dergleichen gefragt. Und ganz gewiss nicht nVidia, die eh nur versuchen würden, den Markt mit nutzlosem proprietärem Müll zu torpedieren. Nichts aus dem G-Sync Debakel gelernt? Natürlich sollten GPU Entwickler wie AMD oder nVidia auch auf die Softwareentwicklung Einfluss nehmen, aber eben keine Alleingänge versuchen. So wie das AMD im Moment macht, ist das schon richtig, ein Schritt nach dem anderen gehen. Raytracing wird nicht von heute auf morgen alles verändern. Und ein Kaufargument wird es so schnell auch nicht werden, zumindest im Massenmarkt.

Ansonsten sind deine Ausführungen alle total pro AMD, teils gelogen, und nein KR Home hat damit nicht recht und auch nicht das gemeint.
Meine Aussagen sind nicht pro AMD. Sie sind nur weniger pro nVidia als die Rechthaberei mancher nVidia Kinder hier. Wenn nVidia so toll und eh besser ist, warum hängt ihr denn ständig in AMD Threads rum und macht alles nieder? Denkt ihr echt solches Verhalten macht euch glaubwürdig und eure Aussagen richtiger? Ausserdem wüsste ich gerne mal was gelogen sein soll. Und bitte mit Quellen für Widerlegungen.
 
So ist es. Auch wenn AMD und nVidia anscheinend bei der Entwicklung involviert waren. Dass DXR nur von nVidia "federführend mitentwickelt" wurde ist natürlich wieder mal eine dreiste Lüge.
Man sollte auch seinen eigenen Link lesen:
HEXUS received an email bulletin from AMD about its own work on Microsoft's DirectX Raytracing API. It said that it was "closely collaborating with Microsoft," on the future of the API. More specifically it is helping to "define, refine and support the future of DirectX12 and ray tracing". Without mentioning any of its own hardware/software technologies
Jetzt fragen wir uns doch mal, wer wohl mehr sich an DXR beteiligt hat: Der IHV, der neben Hardware mit speziellen Cores zur DXR-Beschleunigung, entsprechende Software-Bibliotheken und auch eine VulkanAPI schon veröffentlicht hat oder der IHV, der auf die Frage "Was hast du da mit entwickelt?" nur stottern kann?

Wenn ich das noch richtig in Erinnerung hab, ist das lediglich eine RTX spezifische Erweiterung von Nvidia für Vulkan. Wäre also belanglos für allgemeine Entwicklungen.
Ist eben das Problem, wenn man keine Ahnung von Vulkan hat: Es ist normal, dass Vulkan-Extensions als IHV-spezifische Erweiterung eingeführt werden und irgendwann in den normalen Standard übernommen werden.

Und da sind Unternehmen wie Microsoft, die Khronos Group und dergleichen gefragt. Und ganz gewiss nicht nVidia, die eh nur versuchen würden, den Markt mit nutzlosem proprietärem Müll zu torpedieren.
DirectX ist genauso nutzloser, proprietärer Müll, wie RTX :ugly:
 
Zurück