Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIndiana Jones und der Große Kreis: Radeon-GPUs unterstützen kein volles Raytracing
Wäre für AMD Käufer wünschenswert. Hoffentlich dann auch mit Entsprechenden Vram. Überholt wird Nvidia aber sicher "noch" nicht. Im Januar oder Februar gehen ja auch die ersten RTX50....Modelle an den Start. Natürlich auch mit gesteigerter R:T Performance.
Kein Plan, aber letztendlich zählt nur das Ergbenis auf dem Platz und selbst die besten FSR Umsetzungen haben nicht abstellbare Probleme bisher. Ich hoffe das AMD den FSR in Spezial Hardware Weg geht und damit einen Sprung hinlegt.
Auch bezüglich Leistung gerne! Aber selbst wenn gibt es ja auch neue Konkurrenz.
Naja dlss hat anscheinend auch manchmal noch Probleme, sehen wir ja hier bei indy.
Wenn fsr gut im Spiel ist wie z.b. bei Dragon Age, Warhammer darktide, Ghost of tsushima, ... kann ich damit leben. Ich habe mal hellblade 2 wieder angeschmissen und fsr sieht dort echt OK aus jetzt.
Es geht mir halt um das Argument, dass diese Liste mit gesponserten Spielen, so etwas einseitig betrachtet wird, wenn in Spielen wie z.b. Star wars Outlaws, fsr einfach unbrauchbar ist. Das liegt ja offensichtlich nicht nur an fsr.
Oder fsr in Alan wake 2, das sieht so sch... aus, das geht gar nicht.
Ich meiner natürlich in ihrer Preisklasse. Anscheinend kommen sie auch gleich mit der 5070, nicht ohne Grund. Mit 12 GB vram haha
Naja dlss hat anscheinend auch manchmal noch Probleme, sehen wir ja hier bei indy.
Wenn fsr gut im Spiel ist wie z.b. bei Dragon Age, Warhammer darktide, Ghost of tsushima, ... kann ich damit leben. Ich habe mal hellblade 2 wieder angeschmissen und fsr sieht dort echt OK aus jetzt.
Es geht mir halt um das Argument, dass diese Liste mit gesponserten Spielen, so etwas einseitig betrachtet wird, wenn in Spielen wie z.b. Star wars Outlaws, fsr einfach unbrauchbar ist. Das liegt ja offensichtlich nicht nur an fsr.
Verstehe ich, berichte jetzt nur von meiner Erfahrung mit Ghosts of Tsushima und die waren mit FSR nicht so positiv. Ich probiere es jetzt auch nicht in jedem Spiel aus, da ich meistens sehr gut mit DLSS zufrieden bin.
Aber bei Ghosts of Tsushima habe ich es direkt ausprobiert.
RDNA 2/3 hatte nur wenig Raytracingperformance. Man konnte mit dieser Performance Schatteneffekte aufhübschen. Solange die Performance nicht höher ist, werden die Spiele auf die NVIDIA-Architektur optimiert. Das heisst im Umkehrschluss auch, dass sie auf AMD schlechter laufen. Das kann sich erst ändern, wenn AMD genügend Leistung liefert.
Hier noch zwei Links. Die zeigen schön die Differenz zwischen den Implemantationen:
Note: Jake has commented that Nvidia’s tools may not show the true BVH structure.
chipsandcheese.com
Bei Starfield hatte hier im Forum das NVIDIA-Lager bezüglich FSR gejammert. Jetzt jammert das AMD-Lager über DLSS.
Wenn ein Studio von einem Hersteller unterstützt wird, wird diese Technologie zuerst benutzt, weil man in dem Moment das Know-how in House hat. Vor einem Release ist man im Zeit- und Budget-Stress. Da hat man keine Zeit für optionale Feature.
Wenn man FSR jetzt auch noch implementiert, muss man mit dieser Option einen kompletten QA-Cycle fahren. D.h. testen, ob nirgends Wassereffekte, Schatten oder irgendwas kaputt geht. Das ist sehr viel Aufwand. Modder machen den Aufwand nicht. Dort schreit auch niemand, wenn es in ein paar Szenen nicht gut aussieht.
Naja, gab mal eine Vergleichstabelle und da hat sich AMD auch nicht mit Ruhm bekleckert.
Aber ich gebe dir beim ersten sofort Recht. Es wäre Stand heute das mindeste FSR zu implementieren.
Und was ist eigentlich die Begründung zu dem fehlenden Path Tracing Support.
Generell sollte ein Entwickler und auch der Publisher eine Meinung dazu nach außen vertreten warum man das nicht anbietet.
Wwie man es nimmt. Habe ich im ersten Moment auch gedacht, wenn man aber mal ehrlich ist, dann ist das PT Bild schon extrem viel glaubwürdiger Beleuchtet. Aber sicherlich hätten sich plakativere Beispiele finden lassen.
Trotzdem eine Frechheit warum so etwas nicht zum Release drin ist.
Eventuell kann ich da ein wenig Licht ins Dunkel bringen ,
Pathtracing bedeutet eigentlich echtes /natives Hardware-Rendering .
Will heißen der Renderer muss für die Hardware eine Kompilierung haben - Die also direkt nutzen können .
Es gibt aber nach wie vor für AMD Karten keinen echten Hardware-Renderer , wirklich funktionierende Renderer gibt es bis heute nur von und für NV-Hardware . NV müsste schon seinen Renderer auf die AMD-GPU kompilieren was die niemals machen würden (da stecken ca. 20 Jahren Entwicklungskosten und Zeit drin ).
Um Das klar zu halten : dieses so genannte "RT" ist nur Microsoft DXR das wie alles in Direkt-X nur eine Art einfacher Renderer ist der mit Tricks und Filtern arbeitet und nur teilweise raytracing-Funktionen beherrscht. Ohne DXR gäbe es für AMD gar kein RT.
Microsoft ist 2018 in die RT Renderer eingestiegen und hatte da ca. 10 Jahre Rückstand auf NV die ihren Renderer von Anfang an professionell vermarkten IRAY , VRAY etc. und im Bereich der CGI der Goldstandart sind .
Eine echtes RT für AMD kann es also nur geben wenn MS seinen Renderer vervollständigt oder AMD endlich einen eigenen bringt ( hatten vor Jahren einen in der Mache aber nie fertig gestellt ).
Das macht auch deutlich warum AMD-Hardware beim Rendern langsamer läuft - Die Hardware ist da , doch DXR-RT kann noch lange nicht alle Funktionen , und die werden im Hybriden Rendern zum Teil auf der Cpu abgearbeitet.
Die Karten müssen also mit einer Hand auf dem Rücken kämpfen.
AMD hat erst kürzlich zugegeben viel zu lange den Focus auf der Hardware gehabt zu haben und erst in letzter Zeit massiv in IT investiert ....
Lest ihr eigentlich die Links dazu, die ich gepostet habe?
Ihr wolltet Quellen, da habt ihr sie.
Dann geht ihr aber hin, malt Euch die Welt schön einfach und simpel und behauptet irgendwas.
Biologie ist auch ein Teilgebiet der Physik.
JA, streng genommen ist Path Tracing eine erweiterte oder spezielle Unterform von Ray Tracing, wenn man so will.
Es braucht ein paar mehr spezielle Berechnungen ... ein paar viel mehr spezielle.
Nvidias RT-cores sind darauf ausgelegt solche speziellen PT-Kalkulationen, sowie auch die übergeordneten allgemeineren Berechnungen durchzuführen.
Bei AMD sind die RA's viel mehr auf Ray Tracing ausgerichtet. Extraberechnungen für PT laufen Hybrid in Software.
Steht alles in den Artikeln und Links. Muss man halt mal ein bisschen lesen und studieren.
Eventuell kann ich da ein wenig Licht ins Dunkel bringen ,
Pathtracing bedeutet eigentlich echtes /natives Hardware-Rendering .
Will heißen der Renderer muss für die Hardware eine Kompilierung haben - Die also direkt nutzen können .
Es gibt aber nach wie vor für AMD Karten keinen echten Hardware-Renderer , wirklich funktionierende Renderer gibt es bis heute nur von und für NV-Hardware . NV müsste schon seinen Renderer auf die AMD-GPU kompilieren was die niemals machen würden (da stecken ca. 20 Jahren Entwicklungskosten und Zeit drin ).
Um Das klar zu halten : dieses so genannte "RT" ist nur Microsoft DXR das wie alles in Direkt-X nur eine Art einfacher Renderer ist der mit Tricks und Filtern arbeitet und nur teilweise raytracing-Funktionen beherrscht. Ohne DXR gäbe es für AMD gar kein RT.
Microsoft ist 2018 in die RT Renderer eingestiegen und hatte da ca. 10 Jahre Rückstand auf NV die ihren Renderer von Anfang an professionell vermarkten IRAY , VRAY etc. und im Bereich der CGI der Goldstandart sind .
Eine echtes RT für AMD kann es also nur geben wenn MS seinen Renderer vervollständigt oder AMD endlich einen eigenen bringt ( hatten vor Jahren einen in der Mache aber nie fertig gestellt ).
Das macht auch deutlich warum AMD-Hardware beim Rendern langsamer läuft - Die Hardware ist da , doch DXR-RT kann noch lange nicht alle Funktionen , und die werden im Hybriden Rendern zum Teil auf der Cpu abgearbeitet.
Die Karten müssen also mit einer Hand auf dem Rücken kämpfen.
AMD hat erst kürzlich zugegeben viel zu lange den Focus auf der Hardware gehabt zu haben und erst in letzter Zeit massiv in IT investiert ....
Es gibt kein echtes/wahres Rendering.
Jedes Verfahren ist ein Modell der Wirklichkeit.
Bei Rasterisierung hast du ein "einfaches" Modell. Du schaust welche Primitiven (Dreiecke) sichtbar ist und projizierst diese mit mathematischen Funktionen auf dein Bildschirm.
Raytracing ist ein wenig kompliziertes Modell. Anstatt von den Objekten gehst du vom Bildschirm aus und verfolgst die Strahlen in die Umgebung. Das ist quasi die Physik umgekehrt implementiert. Du verfolgst nur Lichtstrahlen, die sicher die Kamera treffen. Man spart sich viel unnötige Rechenarbeit. So kannst du Reflexion und Refraktion modellieren, aber Kaustik kannst nicht richtig abbilden.
Um die Strahlenverfolgung zu beschleunigen wurden BoundVolumes und Strahlenberechnungen direkt in Hardware implementiert. Das funktioniert effizienter, als wenn du diese über Shaderprogramme implementierst.
Pathtracing ist ein Modell, bei dem die Strahlen beim auftreffen in eine zufällige Richtung verfolgt wird. Es löst mit der Monte-Carlo-Methode das Integral der BRDF (Bidirectional reflectance distribution function).
Mit diesem Modell kannst du zu der Reflexion und Refraktion auch die Kaustik abbilden.
Monte-Carlo-Methoden sind sehr aufwändig weil durch das zufällige Auswählen der Richtungen, auch solche Ausgewerten werden, die kaum ein Beitrag zur Funktion bieten.
Bei diese Methode kannst du auch die Hardwareoptimierungen vom Raytracing wieder verwenden.
NVIDIA hat die Hardwareoptimierungen anderst in die GPU eingebaut als AMD. Dazu haben sie auch mehr Funktionen in Hardware abgebildet. AMD hat den Ansatz gewählt, dass sie wenig Die-Space für Raytracing einsetzen wollen, weil sie für eine Technik die sich noch nicht durchgesetzt hat, kein teurer Platz auf den Chip verschenden wollten. Jetzt mit RDNA 4 und mit der Playstation Pro änder sich das.
@Karpatenelektriker: im oberen Beitrag habe ich zwei Artikel von Chips and Cheese verlinkt. Diese zeigen sehr gut die architektonischen Unterschiede der Implementation auf.
Pathtracing basiert auf Raytracing. Der Unterschied ist die Rendermethode (z.B. Monte Carlo), die Anzahl der Rays (nicht der Bounces) und die daraus resultierenden Ergebnisse. Mathematisch und physisch können das sowohl Nvidia- als auch AMD-Karten. die RT-Einheiten einer Karte haben da nichts extra "spezifisches".
Und nein, auch bei AMD funktioniert PT nicht über Software, sondern rein über die RA's. Die RA's sind einfach bloß langsamer als die RT-Einheiten von Nvidia-Karten, egal ob normales RT oder PT.
Ich kann z.B. in Cinema 4D genauso mit einer AMD-Karte mit der Monte Carlo Methode (PT) rendern wie mit einer Nvidia-Karte, nur berechnen die RA's aufgrund weniger Leistung weniger Iterationen/sec., bevor das Bild oder der Frame vollständig berechnet ist und dargestellt wird. Aber zw. Software, Treiber und Hardware wird hier genauso kommuniziert wie bei den AMD-Karten.
Bei den Games laufen ja auch CP 2077, Alan Wake 2 und Black Myth Wukong via PT über AMD-Karten. Mit Sicherheit nicht über Software, sondern rein über die RA's. Daher frag ich mich, woher du die Falschinformationen nimmst.
Genauso auch warte ich noch auf eine Erklärung von Raff, wieso neuerdings AMD-Karten kein PT können sollen. Bin von dieser Aussage nach wie vor verunsichert, weil ich der Meinung bin, dass Raff hier der GPU Pro ist.
Lediglich die Quellen und Berichte, die ich so gefunden habe, wiedersprechen da in Teilen: dass bei AMD die RA's eben noch nicht alles abwickeln in Richtung PT und AMD dort noch hybrid fährt (Hardware- & Software-Ansatz), dass es in der Entwicklung sei - aber noch keine genauen Aussagen von AMD dazu gemacht wurden, und dass man mit RDNA4 und spätestens RDNA5 PT erwartet, dass die Cores auch PT besser integrieren und umsetzen.
Ansonsten bin ich in der Theorie bei Dir.
Ich finde dazu nur:
AMD Path Tracing on New Cards
a summary of AMD's implementation of Path Tracing with RA (Ray Accelerators) cores on their new cards:
1. RDNA 4 Radeon graphics cards: AMD's latest RDNA 4 GPUs have a "brand new" ray tracing engine, which is a significant departure from their previous approach (RDNA 3). This new engine is designed to take on Nvidia's Blackwell later this year.
2. Ray Accelerators (RA) cores: AMD's RA cores are hardware accelerators that enhance ray tracing performance. They are baked into the architecture and improve ray tracing performance compared to standard compute units.
3. Path Tracing support: AMD's RA cores support Path Tracing, allowing for more realistic lighting and reflections in games and applications. While not as extensive as Nvidia's implementation, AMD's Path Tracing capabilities have improved with each new generation.
4. Comparison to Nvidia: AMD's RA cores and Path Tracing implementation are still behind Nvidia's dedicated RT cores and DLSS (Deep Learning Super Sampling) technology. However, AMD's RX 6900 XT and RX 6800 XT GPUs have shown competitive performance in Path Tracing benchmarks, such as Port Royal, against Nvidia's RTX 3070.
5. Software support: AMD's software suite, including Radeon Software, provides support for Path Tracing and ray tracing in general. While not as extensive as Nvidia's GeForce Experience, AMD's software offers some features, such as FSR (FidelityFX Super Resolution), to enhance ray tracing performance.
AMD's new RDNA 4 graphics cards do support Path Tracing, but it's not entirely done on the RA (Ray Accelerators) cores. Here's a breakdown:
RA cores: AMD's RA cores are designed to accelerate certain aspects of ray tracing, such as:
Ray intersection tests
Scene hierarchy traversal
Ray sorting and scheduling
Path Tracing: While RA cores do help with some parts of the Path Tracing pipeline, the actual Path Tracing calculations are still performed on the Shader Cores (also known as Stream Processors or Compute Units).
Hybrid approach: AMD uses a hybrid approach, where the RA cores handle some of the ray tracing tasks, and the Shader Cores handle the more complex calculations, including Path Tracing.
Software support: AMD's drivers and software suite, including Radeon Software, provide support for Path Tracing and ray tracing in general. However, the actual implementation and performance may vary depending on the specific game or application.
In summary, while AMD's RA cores do contribute to the ray tracing pipeline, Path Tracing is not entirely done on the RA cores. Instead, it's a hybrid approach that leverages both the RA cores and Shader Cores to perform the necessary calculations.
Introduction to AMD RA Cores: AMD RA cores are designed to accelerate bounding volume hierarchy (BVH) instructions, which are used to find collisions between rays in a graphics scene.
Path Tracing Implementation: The path tracing implementation using AMD RA cores is available through the GPUOpen sources, specifically through the Radeon Rays library, which is a lightweight accelerated ray intersection library for DirectX 12 and Vulkan.
Radeon Rays: Radeon Rays exposes a well-defined C API for scene construction and performing asynchronous ray intersection queries. It supports a range of use cases, including interactive light baking for game development workflows and real-time indirect sound simulation.
GPUOpen Sources: The GPUOpen sources provide access to the Radeon Rays library, which can be used to implement path tracing on AMD GPUs. The library is open-source and available on GitHub.
Real-Time Ray Tracing: AMD also announces Radeon ProRender support for real-time GPU acceleration of ray tracing techniques mixed with traditional rasterization-based rendering. This new process fuses the speed of rasterization with the physically-based realism that users of Radeon ProRender expect for their workflows.
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst:
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Für mehr Informationen besuche die Datenschutz-Seite.
Woher die "Falschinformationen"? Denke, ich habe genügend Artikel, Quellen, Literatur und Herstellerseiten verlinkt (auch schon in vorangehend posts).
Wenn ich jetzt einen auf "Grestorn" machen würde, würde ich fragen, woher denn deine "Richtiginformationen" stammen
RDNA 2/3 hatte nur wenig Raytracingperformance. Man konnte mit dieser Performance Schatteneffekte aufhübschen. Solange die Performance nicht höher ist, werden die Spiele auf die NVIDIA-Architektur optimiert. Das heisst im Umkehrschluss auch, dass sie auf AMD schlechter laufen. Das kann sich erst ändern, wenn AMD genügend Leistung liefert.
Hier noch zwei Links. Die zeigen schön die Differenz zwischen den Implemantationen:
Note: Jake has commented that Nvidia’s tools may not show the true BVH structure.
chipsandcheese.com
Bei Starfield hatte hier im Forum das NVIDIA-Lager bezüglich FSR gejammert. Jetzt jammert das AMD-Lager über DLSS.
Wenn ein Studio von einem Hersteller unterstützt wird, wird diese Technologie zuerst benutzt, weil man in dem Moment das Know-how in House hat. Vor einem Release ist man im Zeit- und Budget-Stress. Da hat man keine Zeit für optionale Feature.
Wenn man FSR jetzt auch noch implementiert, muss man mit dieser Option einen kompletten QA-Cycle fahren. D.h. testen, ob nirgends Wassereffekte, Schatten oder irgendwas kaputt geht. Das ist sehr viel Aufwand. Modder machen den Aufwand nicht. Dort schreit auch niemand, wenn es in ein paar Szenen nicht gut aussieht.
Aber (Warnung), die meisten hier verstehen nicht, wie in Projekten priorisiert wird.
Für die ist das alles "eine Sache von 5min und ein paar klicks - doofer Developer"
Erstens: ich habe keine Quellen verlangt.
Zweitens: Wenn du keine Diskussion willst, dann bist in einem Forum wohl falsch.
Drittens: Ich habe echt besseres zu tun, als mir zig Quellen durchzulesen
Vielleicht solltest dich dann eher mit einem Chatbot unterhalten.
Wie schonmal erwähnt ist das eine Problematik von XBox Studios.
Nixxes implementiert alle am PC bekannten Upscaler in ihre Games.
Haben Sony-Studios mehr Zeit und Geld als XBox-Studios?
Es gibt kein echtes/wahres Rendering.
Jedes Verfahren ist ein Modell der Wirklichkeit.
Bei Rasterisierung hast du ein "einfaches" Modell. Du schaust welche Primitiven (Dreiecke) sichtbar ist und projizierst diese mit mathematischen Funktionen auf dein Bildschirm.
Raytracing ist ein wenig kompliziertes Modell. Anstatt von den Objekten gehst du vom Bildschirm aus und verfolgst die Strahlen in die Umgebung. Das ist quasi die Physik umgekehrt implementiert. Du verfolgst nur Lichtstrahlen, die sicher die Kamera treffen. Man spart sich viel unnötige Rechenarbeit. So kannst du Reflexion und Refraktion modellieren, aber Kaustik kannst nicht richtig abbilden.
Um die Strahlenverfolgung zu beschleunigen wurden BoundVolumes und Strahlenberechnungen direkt in Hardware implementiert. Das funktioniert effizienter, als wenn du diese über Shaderprogramme implementierst.
Pathtracing ist ein Modell, bei dem die Strahlen beim auftreffen in eine zufällige Richtung verfolgt wird. Es löst mit der Monte-Carlo-Methode das Integral der BRDF (Bidirectional reflectance distribution function).
Mit diesem Modell kannst du zu der Reflexion und Refraktion auch die Kaustik abbilden.
Monte-Carlo-Methoden sind sehr aufwändig weil durch das zufällige Auswählen der Richtungen, auch solche Ausgewerten werden, die kaum ein Beitrag zur Funktion bieten.
Bei diese Methode kannst du auch die Hardwareoptimierungen vom Raytracing wieder verwenden.
NVIDIA hat die Hardwareoptimierungen anderst in die GPU eingebaut als AMD. Dazu haben sie auch mehr Funktionen in Hardware abgebildet. AMD hat den Ansatz gewählt, dass sie wenig Die-Space für Raytracing einsetzen wollen, weil sie für eine Technik die sich noch nicht durchgesetzt hat, kein teurer Platz auf den Chip verschenden wollten. Jetzt mit RDNA 4 und mit der Playstation Pro änder sich das.
@Karpatenelektriker: im oberen Beitrag habe ich zwei Artikel von Chips and Cheese verlinkt. Diese zeigen sehr gut die architektonischen Unterschiede der Implementation auf.
Ja und nein - echtes rendern meint eine Engine zu benutzen , die mathematisch gesehen offen gehalten wurde also so wie Software im infinit-Modelling . MS-DXR ist aber eben nur eine stark abgespeckte Renderengine die von vorn herein nur mit sehr begrenzter Auflösung arbeitet was Strahlenmenge wie Strahlentiefe und Bits per Ray angeht und mit Filtern und Tricks arbeitet , dazu kommt dass DXR nach wie vor viel zu weniger Shader besitzt um eine auch nur ansatzweise vollständige Materialbibliothek zu besitzen . Ohne die Materialien kann eine 3D-Engine keine Shader in der Hardware zuweisen - egal welche Spezial-Cores eine HW besitzt .
Erstens: ich habe keine Quellen verlangt.
Zweitens: Wenn du keine Diskussion willst, dann bist in einem Forum wohl falsch.
Drittens: Ich habe echt besseres zu tun, als mir zig Quellen durchzulesen
Vielleicht solltest dich dann eher mit einem Chatbot unterhalten.
Der eine will in einem Forum nur gepflegte Diskussion und Meinungsaustausch, ohne sich große einlesen zu müssen (hat keine Zeit für Querlesen und Recherche, ABER für Foren),
der andere verlangt bei jeder Meinungsäußerung basierend auf Gelesenem und Aufgeschnapptem die genau Quelle, die die Einschätzung und das Zusammengefasste GENAU SO im Wortlaut wiedergibt und belegt...
Und so schwankt man zwischen Stammtisch-Austausch und Grundlagen-Wissensvermittlung.
Man kann es nie allen recht machen. Einer meckert immer.
Daher bin ich hier wieder raus
Genau! Ich bin falsch im Forum hier. Danke für die deutliche Erinnerung.
Ciao Wauwau o/
Du musst doch schon an der Performance merken dass AMD Karten auch Pathtracing mit den RT Kernen beschleunigen. Ansonsten wäre die 4090 nicht nur 4 mal so schnell wie die 7900XTX in Alan Wake 2. Deine Theorie passt doch vorne und hinten nicht.
Naja, da hast du jetzt schlecht gewählt. Allen Wake ist wie Cyberpunk, Code von Nvidia, speziell auf die 4000er mit ihrem Verhältnis von Recheneinheiten ausgelegt. Dass würde selbst beim Rastern positiv für RTX 4000 ausfallen und sieht man ja auch. Wenn die 4090 in UHD und aufwendiger Rastergrafik sonst 30% vorn liegt, sind's hier schon 40%.
Also diese Spiele sind keine allzu guten Beispiele fürs einschätzen der reinen RT Beschleunigung im Bezug auf sonstige Verhältnismäßigkeiten.
Taugen, tun sie aber dennoch, weil man schön den Einbruch sieht auf Seiten der Radeons. Deshalb bin ich auch so skeptisch bezüglich der RT Leistung der 8000er. Selbst wenn die einen 100% Sprung hinlegen, ist in solch spezialisierten Anwendungen noch ein Defizit von 80% vorhanden. Der würde sich nur ändern, wenn die Shaderanzahl im allgemeinen sich zusätzlich annähern würde. Danach sieht es stand heute aber nicht aus.
Er behauptet dass AMD Karten Pathtracing nicht mit ihren RT Einheiten beschleunigen könnte. Allerdings zeigt das Beispiel dass selbst in diesem Bestcase die 4090 "nur" 4 mal so schnell ist. Das wäre weite mehr wenn die Radeon Karten die RT Einheiten nicht nutzen würden. Die ganze Argumentation ergibt schlicht null Sinn.
Ja und nein - echtes rendern meint eine Engine zu benutzen , die mathematisch gesehen offen gehalten wurde also so wie Software im infinit-Modelling . MS-DXR ist aber eben nur eine stark abgespeckte Renderengine die von vorn herein nur mit sehr begrenzter Auflösung arbeitet was Strahlenmenge wie Strahlentiefe und Bits per Ray angeht und mit Filtern und Tricks arbeitet , dazu kommt dass DXR nach wie vor viel zu weniger Shader besitzt um eine auch nur ansatzweise vollständige Materialbibliothek zu besitzen . Ohne die Materialien kann eine 3D-Engine keine Shader in der Hardware zuweisen - egal welche Spezial-Cores eine HW besitzt .
Du verwechselst eine Schnittstelle mit einer Engine.
DXR ist eine Erweiterung der DX12 Schnittstelle. Es stellt Engine die Schnittstelle zu den Hardware-Funktionen ("Spezial-Cores") zu verfügung. Das heisst, die Engine kann dann Hardwarebeschleunigt Strahlen verfolgen und die BoundingVolume benützen. Die Engine kann ein Shader registrieren, welcher dann ausgeführt wird, wenn ein Dreieck von einen Strahl getroffen wird.
Auflösung, Strahlenmenge, Materialeigenenschaften, etc für das ist die Engine verantwortlich und nicht die Schnittstelle (wie DXR)
Ich gewöhne mich SEHR GERNE daran, wenn die GPUs denn endlich soweit sind es ohne Performance Verlust zu schubsen!
Ach und fast vergessen, dabei auch noch schön effizient und kühl bleiben.
Da muss ich wohl erst bis zur 6090 oder länger warten.
Das macht auch deutlich warum AMD-Hardware beim Rendern langsamer läuft - Die Hardware ist da , doch DXR-RT kann noch lange nicht alle Funktionen , und die werden im Hybriden Rendern zum Teil auf der Cpu abgearbeitet.
Das stimmt halt nicht so ganz. Diese Funktionen müssen in Hardware gegossen bzw. durch die Hardware beschleunigt werden. RT lief schon immer, auch lange vor RTX, aber die Karten haben zum ersten mal dedizierte Hardwareeinheiten dafür geliefert, um das ganze zu beschleunigen.