Doom Eternal jetzt mit Raytracing: Techniktest des RT(X)-Patches - Benchmark-Liveticker

Am Besten die GamingServices in der Registry löschen!
(da hängt manchmal alter Kram fest und verhindert die Installation neuerer Versionen)

Vielen Dank nochmal für den Tipp, hat geholfen. Läuft wieder alles, Updates und Installation. :daumen:

---

Also mein lieber Scholli, das läuft ja sogar ohne DLSS wie geschnitten Brot.
UWQHD 120 - 190 FPS - 3080@stock

Bei meinem jetzigen Monitor brauche ich kein DLSS (100Hz), wenn die Tage der neue kommt zwar auch nicht zwingend, aber ziemlich sicher das Teil mit DLSS irgendwo bei 180 FPS festnageln zu können.

Optisch schon ein sehr schöner Zugewinn, ich liebe diesen RT-Kram einfach.
Wenn man an einer Scheibe einfach mal stehen bleibt und sich selber anglotzt, fantastisch. :haha:
 
Es gibt nur Eines. was mich am Gamepass stört. Ich habe manchmal das Gefühl, das die Deinstallation net Alles runterhaut.
Deswegen habe ich für Gamepass-Kram ein eigenes Laufwerk, Was ich im Zweifelsfall "Schnellformatiere".
Vorher natürlich erstmal normal deinstallieren und staunen wieviel Rest noch drauf ist.
 
Gott driftet das schon wieder in Lobhudelei und RT Grundsatz Debatten ab hier, ist das Thema nicht mal irgendwann durch?
Ich lese seit Jahren in einschlägigen Foren mit und verfolge die Entwicklung seit mehr als 30 Jahren und entwickle beruflich kundenspezifische Logik für FPGAs und CPLDs.
Angefangen als Jugendlicher, als Windows noch keine praktikablen Schnittstellen für Audio und Grafikoperationen gab und man auf MS-DOS entwickelte und 1995 Doom für Directx 1.0 herauskam und es bis zur dritten Version dauerte, bis Entwickler langsam darauf aufmerksam wurden, habe ich die Grafikentwicklung intensiv verfolgt.

Dann ging es langsam los mit Multitexturen, CubeMaps, Tesselation uvm, was deutliche Grafiksprünge ermöglichte, viel später nach Directx9/10/11 der Schritt zurück zu Low Level Programmierung und nun steht man heute nach langer Zeit endlich vor dem Einsatz von Real Time Raytracing und kann dies heute schon effizient in vorhandene Spiele einbauen. Etwas wovon man all die Jahre schon geträumt hatte.

Man fieberte all die Jahre mit den Entwicklungen mit und nun hat man das Gefühl, dass ein großer Teil der Forenteilnehmer sich überhaupt nicht mehr über die aktuelle Technik informiert und stattdessen längst überholte Mythen und Verschwörungstheorien verbreitet. Was hier an Quatsch geschrieben wird, ist nicht nachvollziehbar.

Als Doom-Veteran der ersten Stunde habe ich das Spiel auf einer 3080 nun komplett durch und die Spiegelungen werten das Spiel deutlich auf, auch DLSS ist auf meinem 3440x1440 Ultra Wide Monitor mit RSS 2.2DLL ein absoluter Hingucker und bietet als TAA Upscaler sehr gute Ergebnisse.

Schaue dir aktuelle nextGen Konsolen an, dann weißt du welche HW Voraussetzungen die nächsten "Jahre" bestehen also werden die proklamierten Vorteile nicht zur Geltung kommen und tatsächlich ist es nicht unwahrscheinlich, eben weil Nvidia mal wieder propritär agiert, dass RT das gleiche Schicksal ereilt wie 3d, VR, gameworks, physix und Co..

MfG
Die Hardwarespezifikationen des Desktop PC waren denen der Konsolen schon immer deutlich überlegen.
Und schimpft es sich nicht propritär, sondern proprietär.
Proprietär ist RT keineswegs, es ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung und zur Ermittlung der Sichtbarkeit von dreidimensionalen Objekten,, vorzugsweise von einem oder mehreren bestimmten Punkten (Kameraperspektive) aus.

Der RT Algorithmus ist offen und für jeden frei verfügbar.:-S

Ja, stimmt ja auch denn ohne Tricks wie DSLL könnte man RT nicht wirklich nutzen, da die HW eben nocht nicht soweit ist. :-)
Das ist eine absolut unzutreffende Aussage. Seit Turing hat die Hardware genug Leistungsfähigkeit um beispielsweise die komplette Beleuchtung *siehe Metro Exodus Enhanced* also auch Verschattung und als Sahnehäubchen oben drauf noch Spiegelungen effizient zu berechnen.
Mit leichten Abstrichen reicht dafür auch eine Einsteiger Turing GPU, ohne KI Upscaling Techniken wie DLSS oder Upscaler wie AMDs Super Resolution.
 
Zuletzt bearbeitet:
Ich lese seit Jahren in einschlägigen Foren mit und verfolge die Entwicklung seit mehr als 30 Jahren und entwickle beruflich kundenspezifische Logik für FPGAs und CPLDs.
Angefangen als Jugendlicher, als Windows noch keine praktikablen Schnittstellen für Audio und Grafikoperationen gab und man auf MS-DOS entwickelte und 1995 Doom für Directx 1.0 herauskam und es bis zur dritten Version dauerte, bis Entwickler langsam darauf aufmerksam wurden, habe ich die Grafikentwicklung intensiv verfolgt.

Dann ging es langsam los mit Multitexturen, CubeMaps, Tesselation uvm, was deutliche Grafiksprünge ermöglichte, viel später nach Directx9/10/11 der Schritt zurück zu Low Level Programmierung und nun steht man heute nach langer Zeit endlich vor dem Einsatz von Real Time Raytracing und kann dies heute schon effizient in vorhandene Spiele einbauen. Etwas wovon man all die Jahre schon geträumt hat.

Man fieberte all die Jahre mit den Entwicklungen mit und nun hat man das Gefühl, dass ein großer Teil der Forenteilnehmer sich überhaupt nicht mehr über die aktuelle Technik informiert und stattdessen längst überholte Mythen und Verschwörungstheorien verbreitet. Was hier an Quatsch geschrieben wird, ist nicht nachvollziehbar.

Als Doom-Veteran der ersten Stunde habe ich das Spiel auf einer 3080 nun komplett durch und die Spiegelungen werten das Spiel deutlich auf, auch DLSS ist auf meinem 3440x1440 Ultra Wide Monitor mit RSS 2.2DLL ein absoluter Hingucker und bietet als TAA Upscaler sehr gute Ergebnisse.


Die Hardwarespezifikationen des Desktop PC waren denen der Konsolen schon immer deutlich überlegen.
Und schimpft sich nicht propritär, sondern proprietär.
Proprietär ist RT keineswegs, es ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung und zur Ermittlung der Sichtbarkeit von dreidimensionalen Objekten,, vorzugsweise von einem oder mehreren bestimmten Punkten (Kameraperspektive) aus.

Der RT Algorithmus ist offen und für jeden frei verfügbar.:-S
Doomveteranen haben das Spiel + DLCs bereits seit Monaten durch und sind vom Mehrwert der -zweifellos netten- Reflections sehr mäßig begeistert und sehen darin keinen Grund noch einen Durchgang zu machen. Kann man haben, muss man aber auch nicht. Nanite und Lumen sind da technisch schnell Faktor XX spannender. :-p
 
Doomveteranen haben das Spiel + DLCs bereits seit Monaten durch und sind vom Mehrwert der -zweifellos netten- Reflections sehr mäßig begeistert...
Ich lasse mir von niemanden eine Meinung diktieren, der nicht dazu in der Lage ist, sich ausreichend über die aktuelle Technik von Grafikkarten zu informieren. Quarkdenker haben wir in Deutschland bezüglich des Corona Themas schon genügend und als Doom Veteran bezeichnen sich wohl hauptsächlich diejenigen, welche seit ANNO dazumal dabei sind.
und sehen darin keinen Grund noch einen Durchgang zu machen. Kann man haben, muss man aber auch nicht. Nanite und Lumen sind da technisch schnell Faktor XX spannender. :-p
Ich sehe keinen Sinn darin, mich mit dir auszutauschen, deshalb habe ich die Ignore Funktion genutzt.
 
Zuletzt bearbeitet:
Ein bisschen Perlen vor die Säue.
Sicher, eine gute technische Übung für künftige id-tech Titel und öffentlichkeitswirksam obendrein.
Aber speziell Doom Eternal ist ein Spiel, in welchem ich bereits die Screen-Space Reflexionen deaktiviere, um den visuellen Lärm auf ein Minimum zu drücken.

Was Beleuchtung in Echtzeit betrifft, empfand ich Watch Dogs 2 und Assassins Creed Unity als äußerst beeindruckend. Trotz dynamischen Nacht-/Tagzyklus und bewährter Rastergrafik, zaubert die Disrupt/Anvil-Engine eine wirklich schöne indirekte Beleuchtung auf den Schirm.
Sofern RT dazu beiträgt dies zum Standard zu hieven, bin ich gern dabei, spätestens wenn RTX4060, oder RX7600 erschwinglich werden.
 
Man kann Licht auch nicht einfach durch RT ersetzen, da dann einige Levelbereiche zu dunkel werden, wo eben durch alternative Lichtquellen und entsprechender Nacharbeit, ausgeholfen werden muss.
Es geht nicht darum *Licht durch RT zu ersetzen* sondern sich den Aufwand unsichtbare Lichtquellen zu setzen und einzustellen zu sparen und sofort ein fertiges beleuchtetes Ergebnis eines Innenraums zu erhalten, anstatt es aufwändig manuell zu optimieren, zu prebaken und es zu faken.
 
Aber wie kann es sein, daß beim ersten Vergleichsbild RT an und aus, beim RT aus so gar keine Spiegelung vorhanden ist? Das ist wie wenn Werbung für Schniposa (Schnitzel-Pommes-Salat) machst und daneben nur Pommes legst und sagst .... wie geil ist denn mein Produkt. Blöder geht es ja nicht mehr von Nvidia.
So ist das halt bei SSR (Screen Space Reflections), was nicht auf dem Bildschirm zu sehen ist wird auch nicht gespiegelt. Da steckt keine "NV-Verschwörung" dahinter, das ist tatsächlich so.


So isses...
RT only spart den Entwickler massiven Designaufwand bei zB der Positionierung von Lichtquellen, ich glaube da gibt es ein grandioses Video der DF dazu (glaube das Review zu Metro Enhanced)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Hier, bitte, mit exakter Stelle. 5 Minuten dauert der Abschnitt, sehr sehenswert. Der Aufwand verringert sich um Tage/Wochen für die Entwickler wenn man Faked/Baked vs RT Lighting vergleicht.

Dem widerspreche ich nicht.
Ich fands nur unglaublich lächerlich, dass er ein Gratis-Update, welches speziell für Raytracing gemacht wurde, als eigenständiges Spiel hinstellt (Metro Exodus Enhanced).
Avatar interessiert wohl kaum jemanden und wird sich dementsprechend suboptimal verkaufen. Außer es kommt erst in 3+ Jahren, aber dieses Jahr und auch noch nächstes Jahr würde es wohl komplett untergehen.
Sein "bald" hat mir dann den Rest gegeben und ich konnte nurmehr lachen über diesen Optimismus.
So ziemlich alle gängigen Engines haben bereits RT (und DLSS) nativ implementiert oder stehen kurz vor Release.
Unreal, Unity, IDTech, Anvil/Disrupt, Snowdrop, Frostbite usw usw...

Ich hab da so meine Zweifel das es Entwickler kaum erwarten können RT auf Konsolen in größerem Stil einzusetzen. Die sind erst mal froh nicht mehr jeden Stein umdrehen zu müssen, um die Spiele halbwegs rund zum laufen zu bekommen.^^
Siehe der Youtube Link hier im Kommentar, der Aufwand wird massiv reduziert.

Avatar wird keine RT GPU Voraussetzen.
Korrekt, da wird dann auf den Software-RT-Path geschwenkt. Wie gut Software im Vergleich zu Hardware Paths laufen wissen wir alle, siehe RT auf Pascal GPU's.

Natürlich gibt es das, da Rendern in einer Zielauflösung geschieht und diese wird in Pixeln angegeben und stellt dann die native Auflösung dar.

Wieso Kompromiss, was wäre denn die Alternative?

Bei Kompression werden aber nicht Informationen hinzugefügt, so wie es beim AI upscaling gemacht wird und zwar nicht 1 zu 1 also Frame für Frame sondern anhand eines antrainierten Algorithmus.

MfG
Die "hinzugefügten" Details bei DLSS sind nativ bei 16K aber vorhanden, deswegen ergänzt DLSS sie bei niedrigeren Auflösungen. Also haben die Entwickler es "eigentlich" so designed, nur die Auflösung / das LOD macht da nicht mit.


Ich bin mir da nicht so sicher, ob aktuell die RT Implementierung nicht mehr Arbeit bedeutet. Aus meiner Erfahrung beim Level-Design ist Beleuchtung recht einfach und intuitiv zu integrieren und nicht "so" zweitaufwändig, wie es hier gerne dargestellt wird.

MfG
Siehe der Youtube Link hier im Kommentar, wird innerhalb 5 Minuten schön gezeigt. Die Metro Jungs sprechen von gesparten Tagen pro Szene / Wochen pro Game.

das war ja die predigt:it just works auch nur stuss? witzig
Auch hier, siehe Youtube Link. Wenn RT nativ in der Engine integriert ist, dann ist es sehr einfach (genau wie DLSS).

Edit: Und tatsächlich ist das ursprüngliche Zitat "it just works" von Ron Howard auf einer Fallout Präsentation. Wurde zum Meme, deswegen hat Jensen es wohl aufgegriffen.

Das geht aber nur, weil es nur bruchteilhaft eingesetzt wird. Würde man es voll einsetzen bräuchte man viel viel leistungsstärkere HW. Da gab es doch mal einen RT voll Mod, von Quake glaube ich, da sieht man wieviel Leistung das frisst, bei recht bescheidener Optik. Da haben aktuelle Verfahren noch lange die Nase vorne, vor allem so lange große Marktbereiche HW-technisch auf Jahre festgelegt sind, siehe aktuelle Konsolen. Also, wir brauchen deutlich bessere HW nur stelle ich die Frage in den Raum, wie sinnvoll Verfahren wie DLSS sind, die sich mehr auf das Kaschieren fokussieren und so weniger Ressourcen in schnellere HW fließt, denn das würde ja genau den Prozess verlangsamen den es bedarf, um RT, wie von die gefordert, einsetzen zu können.

MfG

Die Nachfrage dürfte sich aber bei den marginalen Unterschieden wohl in Grenzen halten.

MfG
https://www.hardwareluxx.de/index.p...2-vollstaendig-per-ray-tracing-berechnet.html

Q2VKPT ist eine Umsetzung von Quake 2, welche vollständig auf Ray Tracing basiert. Das Erscheinen der GeForce-RTX-Karten von NVIDIA hat es nun möglich gemacht, ein solches Spiel vollständig und in Echtzeit zu berechnen. Q2VKPT ist ein sogenanntes Proof of Concept, soll die Funktionsweise der verwendeten Techniken darlegen, hat aber keinerlei Ansprüche auf technologische und inhaltliche Vollständigkeit. Dabei wird allerdings kein Ray Tracing im klassischen Sinne verwendet, sondern ein Path Tracing.
Während ein Ray Tracing auf bestimmte Oberflächen und Effekte beschränkt werden kann (bei Battlefield V sind es Reflexionen, bei Metro Exodus die Berechnung der Beleuchtung), wird ein Path Tracing immer auf die komplette Umgebung angewendet, weil diese nur über die Lichtquellen überhaupt sichtbar wird. Anstatt sogenannter Pre Backed Lightning Maps, also teilweise vordefinierter Beleuchtungs- und Verschattungsinformationen, wird hier eine vollständige Beleuchtung in Echtzeit berechnet.
Um die Komplexität der Berechnungen noch einmal vor Augen zu führen: In Q2VKPT werden pro Pixel mindestens vier Rays berechnet. Auch hier findet in der Hälfte der Rays eine rückwärtsgewandte Berechnung von einer Oberfläche zu einer oder mehreren Lichtquellen statt. Bei 2.560 x 1.440 Pixel sprechen wir also von mindestens 884.736.000 Rays pro Sekunde. Um die Berechnungen überhaupt ausführen zu können, greift Q2VKPT per Vulkan-API auf die RTX-Schnittstelle der GeForce-RTX-Karten zurück.
Das muss man sich mal vor Augen führen, die Q2 Pathtracing Engine schafft als POC fast 900mio Rays/sec. Da wird fast die gesamte Szene per Rays "gezeichnet" und dann per temporalem Filter das Rauschen verringert. Ich find das ziemlich abgefahren, sooo weit weg von komplett per Rays berechneten Games sind wir nicht wenn das schon auf Turing läuft.


Was ist mit UE5 Lumen, das ist doch auch ohne RT aber mit gleichem Effekt, schaue dir an, wie einfach und schnell das eingesetzt ist?!?
https://docs.unrealengine.com/5.0/en-US/RenderingFeatures/Lumen/TechOverview/

Lumen Ray Tracing​

Lumen has two methods of ray tracing in Unreal Engine 5: Software Ray Tracing which operates on the widest range of hardware and platforms and Hardware Ray Tracing which requires supported video cards and systems to operate.

Limitations of Software Ray Tracing​

Software Ray Tracing has some limitations relating to how you should work with it in your projects, and what types of geometry and materials it currently supports.
Dann folgt eine lange Liste von Einschränkungen. Here comes Lumen HW RT:

Hardware Ray Tracing​

Hardware Ray Tracing supports a larger range of geometry types than Software Ray Tracing



Doomveteranen haben das Spiel + DLCs bereits seit Monaten durch und sind vom Mehrwert der -zweifellos netten- Reflections sehr mäßig begeistert und sehen darin keinen Grund noch einen Durchgang zu machen. Kann man haben, muss man aber auch nicht. Nanite und Lumen sind da technisch schnell Faktor XX spannender. :-p

Lumen: siehe oben.

https://docs.unrealengine.com/5.0/en-US/RenderingFeatures/Nanite/
Nanite ist auch nur eine Unreal Engine customized "Mesh Shader" Funktion.


Also eigentlich ziehen die Engines jetzt erst die DX12 Ultimate Entwicklung nach mit DXR und Mesh Shadern. Dann kommt bald noch DirectStorage und Sampler Feedback Streaming, und dann wird's richtig abgefahren. Ich denke wir sind kurz vor einem großen Sprung was Grafik und Umfang der 3D Welten angeht.
 
Zuletzt bearbeitet von einem Moderator:
Korrekt, da wird dann auf den Software-RT-Path geschwenkt. Wie gut Software im Vergleich zu Hardware Paths laufen wissen wir alle, siehe RT auf Pascal GPU's.
Ich nenne da mal die Crytek Demo als Beispiel, der Entwickler wird sich schon was dabei denken, Niemand kann sich das derzeit leisten ein RT Only Spiel auf den Markt zu bringen.
 
Ich nenne da mal die Crytek Demo als Beispiel, der Entwickler wird sich schon was dabei denken, Niemand kann sich das derzeit leisten ein RT Only Spiel auf den Markt zu bringen.
Die ist 2 Jahre alt, seitdem hat man davon nichts mehr gehört.

https://www.pcgameshardware.de/CryE...e-Demo-Neon-Noir-Raytracing-Techdemo-1336946/

Niemand hat behauptet dass es dieses Jahr ein RT-only Spiel geben wird. Aber dass es absehbar kommen wird ist sehr wahrscheinlich. Siehe Engines mit nativem RT Support.

Edit: Btw ist die Crytek Demo so ungefähr das was Lumen in der UE5 macht. Software RT eben. Das wird per Hardware immer noch schneller und schöner sein. Die Traversal Beschleunigung ist per Shader / CPU Berechnung nicht so effizient wie auf extra dafür entwickelter Hardware.
 
Zuletzt bearbeitet von einem Moderator:
Gut dass juckt mich als Endkunden dann doch recht wenig.
Es wurde auch von Entwicklern gesprochen und nicht von Konsumenten.
Als Endkunde bekommt man eine bessere Beleuchtung und durch Zeitersparnisse im Leveldesign vielleicht auch pünktlich erscheinende Spiele.

Ray Tracing ist ein großer Schritt in Richtung Fotorealismus, da erschließt es sich mir nicht, warum eine Vielzahl von Nutzern es verteufeln.
So viele Falschinformationen, die man als unbedarfter Nutzer hier mitbekommt, findet man ansonsten nur auf Telegram.
 
Ray Tracing ist ein großer Schritt in Richtung Fotorealismus, da erschließt es sich mir nicht, warum eine Vielzahl von Nutzern es verteufeln.
Ich verstehe auch nicht wieso sich viele mit Händen und Füssen gegen RT wehren und es als visuelle Belästigung und dergleichen bezeichnen.
Im Kino bei Blockbustern wie zB Avengers Endgame beschwert sich auch keiner über das Studnenlange CGI Spektakel welches - Überraschung - mittels RT Technik realisiert wird.
Endlich sind wir in Zeiten angelangt an denen ein Bruchteil dessen in Echtzeit mit 60+fps Möglich ist aber nein: was wir erleben sind beinahe Hasstiraden ala Dr. Cox...
Wäre Scrubs eine aktuelle Serie würde er statt auf Hugh Jackman rumzuhacken auf RT und DLSS schimpfen
 
Ray Tracing ist ein großer Schritt in Richtung Fotorealismus, da erschließt es sich mir nicht, warum eine Vielzahl von Nutzern es verteufeln.
Ganz einfach, bestimmte Hardware (in diesem Fall AMD bzw Konsolen) haben im Vergleich zur Konkurrenz (Nvidia) sehr wenig RT Leistung, und deshalb ist das schlecht und muss verteufelt werden von den Anhängern.

DLSS fanden viele auch schlecht, aber das objektiv gesehen qualitativ schlechtere FSR finden die gleichen wieder toll.:ugly:

Ich freue mich über jeden technischen Fortschritt der tatsächlich etwas weiterbringt, und nicht nur aus Marketing besteht.
Und RT ist ein sehr großer bzw der wichtigste Schritt Richtung realistischer Grafik.
 
Ganz einfach, bestimmte Hardware (in diesem Fall AMD bzw Konsolen) haben im Vergleich zur Konkurrenz (Nvidia) sehr wenig RT Leistung, und deshalb ist das schlecht und muss verteufelt werden von den Anhängern.

DLSS fanden viele auch schlecht, aber das objektiv gesehen qualitativ schlechtere FSR finden die gleichen wieder toll.:ugly:
Wenn wir ehrlich sind kann mit optimierung (zB Raycount, Anzahl der bounces, usw) einiges an Performance wettgemacht werden, und RDNA2 ist das was Turing in Punkto RT war, also durchaus brauchbar wenn man nicht alle Regler auf rechts legt.

Bei FSR kann ich dem Argument "offener Standard, wird auch von älterer HW Unterstützt" durchaus etwas abgewinnen, unter der Prämisse das FSR sich noch verbessert. Im jetzigen Zustand ist es ein "Zustand", abgesehen davon das es keine Rekonstruktionstechnik wie DLSS ist und somit nicht direkt damit verglichen werden kann/soll
 
Heute das Spiel komplett in Ultrasettings mit Raytracing in 3440x1440p 21:9 gezockt. Native 120 FPS durchgehend auf meinem 120 Hz UWQHD Alienware Monítor. Und was soll ich sagen? Ich bin extrem schwer begeistert von diesen Effekten. DLSS in Qualität macht auch einen Mega guten Eindruck. Ich finde es Mega klasse, in einem First-Person-Shooter seinen Charakter im Spiel öfters in spiegelnden Oberflächen zu sehen. Raytracing sei Dank. Das ist so unfassbar immersiv. Es bietet sogar praktische Vorteile: ich wusste nicht von wo geschossen wurde, aber in den Spiegelungen sah ich, dass die Schüsse von links kommen. Genial. Schaut es euch an, spielt es. Extrem geil… Da hat ID Software einen top Job gemacht…
 
Wenn wir ehrlich sind kann mit optimierung (zB Raycount, Anzahl der bounces, usw) einiges an Performance wettgemacht werden, und RDNA2 ist das was Turing in Punkto RT war, also durchaus brauchbar wenn man nicht alle Regler auf rechts legt.
Nicht ganz, z.Bsp. ist eine RX 6800 in punkto Rohleistung einer RTX 2080ti ebenbürtig bzw minimal schneller (4% schneller laut PCGH GPU Index als eine 2080ti), was die RT Leistung betrifft liegt eine RTX 2080ti jedoch auf dem Level einer RX 6800XT und knapp hinter einer RX 6900XT.
1625183411318.png

Index bestehend aus:
1625183452798.png

Siehe:

Und mit Doom Eternal, Metro Exodus oder Cyberpunk 2077 sehen wir was PCGH bereits Ende April vorausgesagt hat, nämlich je intensiver und fortschrittlicher das RT, desto stärker setzt sich Ampere ab, und da ist selbst Turing schneller als RDNA2 (im Verhältnis zur Rohleistung):
1625183637411.png

Siehe:

Soll nicht heißen dass RDNA2 schlecht ist, nur dass man gerade in punkto Zukunftsfähigkeit sehr bald deutliche Einbußen machen wird wenn vermehrt RT Only Spiele wie Metro Exodus Enhanced erscheinen deren RT Technik mit der Zeit fortschrittlicher wird.
Bei FSR kann ich dem Argument "offener Standard, wird auch von älterer HW Unterstützt" durchaus etwas abgewinnen, unter der Prämisse das FSR sich noch verbessert. Im jetzigen Zustand ist es ein "Zustand", abgesehen davon das es keine Rekonstruktionstechnik wie DLSS ist und somit nicht direkt damit verglichen werden kann/soll
Ich bin ein großer Freund von FSR und hoffe auf zukünftige Verbesserungen, ich finde es nur bezeichnend dass einige DLSS verteufelt und FSR in den Himmel loben weil es ja "fake" sei.
 
Den Käufer einer 6800 verstehe ich ja noch, da man hier (bleiben wir mal bei den UVP´s, alles andere ist Händlervera...) halt weniger zahlt und die 8GB bei der 3070, oder jetzt neu bei der 3070TI doch knapp werden können. Da sehe ich für selbe Geld ja noch einen Vorteil. Wobei das ein dichtes Feld ist, weil wer anders argumentiert das er in 1080p RT nutzen möchte und landet trotz nur 8GB bei der 3070.

Aber oberhalb der 6800, macht es für mich aktuell auch kaum einen Sinn. Außer man möchte aus Überzeugung AMD unterstützen.


Gerade noch den Plus Artikel gelesen, bezüglich RT Index. Sehr interessant und kann ich nur jedem empfehlen.

Die 2080TI liefert echt noch super Ergebnisse.
Stimmt nicht. Die 6900 XT ist z.b in Borderlands 3 schneller als eine RTX 3090. Ich habe beide Karten und kann das ehr wohl behaupten. Die Rasterizationsleistung der 6900 XT ist enorm. Und 99,9% aller Spiele haben kein RT. Bis RT mal WIRKLICH Pflicht wird ist selbst eine RTX 3090 schon alter Käse. Ihr vergesst immer dass JEDE Engine auf die Konsolen optimiert ist. Und BTW bei der Unreal 5 Demo (Cutting Edge Technologie) ist die 6900 XT die schnellste Karte. AMD hat mit RDNA 2 einen sehr grossen Wurf gemacht. Die RTX 3090 muss im Schnitt 50 Watt mehr verbrauchen um in vielen Spielen auch nur mithalten zu können. So sehr musste Nvidia mit dem Holzhammer vorgehen.
 
Stimmt nicht. Die 6900 XT ist z.b in Borderlands 3 schneller als eine RTX 3090. Ich habe beide Karten und kann das ehr wohl behaupten. Die Rasterizationsleistung der 6900 XT ist enorm. Und 99,9% aller Spiele haben kein RT. Bis RT mal WIRKLICH Pflicht wird ist selbst eine RTX 3090 schon alter Käse. Ihr vergesst immer dass JEDE Engine auf die Konsolen optimiert ist. Und BTW bei der Unreal 5 Demo (Cutting Edge Technologie) ist die 6900 XT die schnellste Karte. AMD hat mit RDNA 2 einen sehr grossen Wurf gemacht. Die RTX 3090 muss im Schnitt 50 Watt mehr verbrauchen um in vielen Spielen auch nur mithalten zu können. So sehr musste Nvidia mit dem Holzhammer vorgehen.
https://www.pcgameshardware.de/Graf...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/

1625205134913.png


https://www.computerbase.de/thema/grafikkarte/rangliste/

1625205234637.png


1625205255946.png


Mag sein dass die 6900XT in einer handvoll Spielen schneller ist als die 3090 ( siehe AC Valhalla), aber insgesamt ist die 3090 vorne. Da sind sich fast alle Hardware-Journale einig. Die RDNA2 Karten sind dabei vorallem in niedrigen Auflösungen stark, aber wer kauft sich eine 6900XT für 1080p?

Du vergisst dass die beiden größten Engines unserer Zeit (Unreal Engine, Unity) nativen RT Support haben. Damit werden auch Konsolen Games erstellt, die Engine ist da nämlich dieselbe. Es werden jetzt zwangsläufig immer mehr Spiele mit RT Option erscheinen, die RT-Regler kann man als RDNA2 Käufer eben nicht so weit nach rechts schieben wie ein Ampere Käufer.


Und BTW bei der Unreal 5 Demo (Cutting Edge Technologie) ist die 6900 XT die schnellste Karte.

Hast Du dazu einen Beleg? Ich finde nichts. Und was wurde da gemessen? Mit HW-RT oder nur SW-RT?
 
Zurück