Special Grafikkarten-Rangliste Raytracing: 26 Gaming-GPUs zwischen 300 und 2.000 Euro im Vergleich

ich vermisse in sämtlichen benchmarks immer die non-XT RX, wie in meinem fall die RX 6800.
Das ist tatsächlich ein Bug. Ich habe die Karte vor ein paar Tagen komplett nachgetestet (Raster & Ray) und in den Indizes ist sie auch zu finden. Sie fehlt "nur" in den Spiele-Tests. Kommt dann als Update. :-)

Aber das verfälscht alle FPS Ergebnisse in Spielen je nach Auflösung um 20- 44 % was im Text nicht erwähnt wird !

Für mich sind es jetzt nur GPU Fake "FPS-Benchmarks" welche die zu hohen Preise der "Mittelklasse" GPU's schmücken und rechtfertigen sollen.

Bitte überdenkt es nochmal und testet die Spiele nur in nativer Auflösung auch wenn dadurch die "Mittelklasse"-GPU's katastrophal in "anspruchsvollsten" Spielen durchfallen.
Darüber habe ich breit und mehrfach nachgedacht und bin erneut zum Ergebnis gekommen, dass niederkeulende "MAXED OUT"-Benchmarks nur wenigen Leuten helfen. Wir wurden in der Vergangenheit öfter dafür kritisiert, dass wir Spiele gezielt nach den anspruchsvollsten Szenen absuchen und dann mit maximalen Details testen. Das sei praxisfern, so die Kritik einiger Leser. Auch wenn ich persönlich nicht zustimme: Am Ende testen wir ja nicht für unser persönliches Vergnügen, sondern für möglichst viele Leute. Bestimmte Qualitätsstandards (wie die eigenen Benchmarkszenen anstatt generischer Flybys) sind unumstößlich, aber die Settings dürfen gerne auch mal "alltagstauglich" sein. Viele Zocker sind an Raytracing interessiert, nehmen aber die immensen Leistungskosten nicht in Kauf. Da hilft es, wenn man durch smarte Settings ein etwas freundlicheres Bild zeichnet, anstatt alles niederzustrecken. Für die Benchmark-Revision in einigen Monaten kommt die Debatte dann wieder auf den Tisch und wir schauen mal. Die Wahrscheinlichkeit, dass erneut moderate Einstellungen in den Indizes zum Einsatz kommen, welche mit sporadischen, anlassbezogenen Extremtests ergänzt werden, ist aber hoch.

Wie oft hängt man mit der 4090 hier im CPU-Limit?
In Full HD relativ oft, darüber hinaus entspannt sich die Lage aber. Der von uns genutzte 12900K ist zwar nicht mehr der Jüngste, aber ordentlich ausgereizt. :-) Wäre die Lage anders, hätte es eine Benchmark-Revision gegeben - wie beim Rasterizing geschehen.

Ich fände das P/L-Verhältnis der 3060 ti gerade im Vergleich zur 3060 12 GB interessant zu sehen, ggf. könnt ihr das noch ergänzen. Das dürfte wohl über dem der 3070 und eventuell auch besser als das der 4070 ti sein?
Die RTX 3060 Ti ist eines der Modelle, welche ich gerne öfter testen würde, aber die RTX 3070 interessiert am Ende mehr Leute. Und da Zeit begrenzt ist ... altes Problem. Zieh einfach 10-15 Prozent ab und du hast die Ti. Mathe regelt. :D

Warum ist die Leistung der 7900er Karten bei Cyberpunk denn jetzt so schlecht geworden?
Das war doch angeblich das Vorzeigeobjekt der Leistungszuwächse gegenüber der alten 6900er?
War nicht mal von bis zu 70% oder so geredet worden? Im Schnitt 50%. Hier sehe ich jetzt schlappe 30%?
Wie, geworden? Diese Werte gab's schon im Launch-Test. Bisher kam auch kein "Wundertreiber", der die bestehenden Schluckäufchen beseitigt.

Interessant wäre auch die einzige SFF Grafikkarte in den Vergleich aufzunehmen: RTX A2000. Es ist zwar eine Workstation Grafikkarte, aber kleinere Raytracing Karten existieren meines wissens nicht.
Knuffiges Teil. Sampled Nvidia aber nicht, da ist es schwer heranzukommen. Oder hast du eine, leihweise? :D

"Das ist gut so, denn althergebrachte Rasterisierung (Rasterizing) erzielt nur dank cleverer Fakes ein hübsches Bild"

@Raff

Dass es eigentlich auch ohne RT Cores geht/ginge, weißt aber schon ?!?
:schief:


Das Video (Link) entstand einer Vega 56 (mit 8 GB) !!
Du kannst alles mit generalisierten Rechenwerken machen. Früher gab es Raytracing-Demos, die rein auf der CPU liefen. War halt nie effizient und somit schnarchlangsam. Erst der aktuelle Ansatz aus Hybrid-Rendering, den damit verbundenen Vereinfachungen und speziellen Rechenwerken brachte den Durchbruch für die Echtzeitanwendung. Die Tatsachen bleiben: Ohne Raytracing wird munter geschummelt und die Beleuchtung ist statisch - eben weil kein Licht simuliert, sondern vorgegaukelt wird.

(Bevor ein anderer einhakt und zu Recht behauptet, dass auch beim Raytracing geschummelt wird: Ja - aber nicht beim Grundprinzip, sondern nur bei der Präzision. Es werden Pixel und somit Strahlen gespart, zeitlich über Frames akkumuliert, interpoliert et cetera. Ansonsten wäre die Sache immer noch von echtzeittauglichen Bildraten entfernt.)

Ich gönn es ja den ARC GPUs hier, die sind eigentlich längst nicht so übel wie Ihr Ruf mittlerweile.
Ist der Ruf denn schlecht? Die Leute sind zu Recht skeptisch. Aber bereits zum Launch der A7-Modelle im Oktober war vieles besser als erwartet - und die vielen Treiber-Updates der letzten Monate haben auch sehr geholfen. In Kürze gibt's wieder mehr Arc. Kompatibilität und Leistung. Klappt alles, dann schon diese Woche die erste Fuhre. :-)

MfG
Raff
 
Also RT ohne DLSS ist quasi nicht möglich in hohen Auflösungen

RT ist und bleibt nativ wirklich nur dem abzuluten Spitzenmodel vorbehalten

RTX4090 - So teuer wie ein Ganzer PC !

Aber da die RTX 4XXX Gen nur DP1.4a kann ist High FPS und Hohe Auflösung nur mit Einschränkung möglich

Daher egal...warten auf RTX5XXX mit DP2.1
Also ich habe schon mit meiner alten 2070er mit RT gespielt, kein Problem.

Und dp1.4a + DSC kann 4k/240+10bit, kommt nicht Mal die 4090er ansatzweise Ran.
 
Keine Ahnung warum man mal mit und mal ohne FSR 1.0 (dachte FSR 2.0 ist schon länger da?) testet. Das verfälscht sicherlich komplett die Rangliste. Wenn, dann einmal ein Chart komplett ohne und einmal komplett mit FSR und/oder DLSS. Wobei, bei Nvidia Karten kommt auch keiner auf die Idee, noch DLSS 1.0 zu nehmen, bei FSR schon... wenn, dann nimmt man jeweils das Verfahren, was einem die maximale FPS Zahl erreichen lässt.
Also dann ein Chart, wo fröhlich DLSS 2.0,2.2,3.0,FSR 1.0,FSR 2.0,2.1 und 2.2 zu finden ist - halt jeweils das Verfahren, was für die Karte und für das Spiel "maximal" verfügbar ist. Würden die Benutzer ja auch so wählen.
 
Keine Ahnung warum man mal mit und mal ohne FSR 1.0 (dachte FSR 2.0 ist schon länger da?) testet. Das verfälscht sicherlich komplett die Rangliste. Wenn, dann einmal ein Chart komplett ohne und einmal komplett mit FSR und/oder DLSS. Wobei, bei Nvidia Karten kommt auch keiner auf die Idee, noch DLSS 1.0 zu nehmen, bei FSR schon... wenn, dann nimmt man jeweils das Verfahren, was einem die maximale FPS Zahl erreichen lässt.
Also dann ein Chart, wo fröhlich DLSS 2.0,2.2,3.0,FSR 1.0,FSR 2.0,2.1 und 2.2 zu finden ist - halt jeweils das Verfahren, was für die Karte und für das Spiel "maximal" verfügbar ist. Würden die Benutzer ja auch so wählen.
Du musst nicht ahnen, es wird ja im Artikel und hier erläutert: https://extreme.pcgameshardware.de/...euro-im-vergleich.629447/page-3#post-11206638

Das Leben ist ein Kompromiss. ;) "Testet einfach alles!" ist in einer Welt, wo Zeit endlich ist, keine Option.

MfG
Raff
 
Keine Ahnung warum man mal mit und mal ohne FSR 1.0 (dachte FSR 2.0 ist schon länger da?) testet. Das verfälscht sicherlich komplett die Rangliste. Wenn, dann einmal ein Chart komplett ohne und einmal komplett mit FSR und/oder DLSS. Wobei, bei Nvidia Karten kommt auch keiner auf die Idee, noch DLSS 1.0 zu nehmen, bei FSR schon... wenn, dann nimmt man jeweils das Verfahren, was einem die maximale FPS Zahl erreichen lässt.
Also dann ein Chart, wo fröhlich DLSS 2.0,2.2,3.0,FSR 1.0,FSR 2.0,2.1 und 2.2 zu finden ist - halt jeweils das Verfahren, was für die Karte und für das Spiel "maximal" verfügbar ist. Würden die Benutzer ja auch so wählen.
Zitat aus dem Artikel:
"Damit auch die Grafikkarten-Mittelklasse spielbare Bildraten erreicht, testen wir die anspruchsvollsten Spiele praxisnah mit Upscaling: FSR 1.0 Ultra Quality (UQ) erreicht eine Qualität, die nah am nativen Bild liegt, läuft auf allen GPUs und entlastet die Grafikkarten fühlbar - teils um 30 Prozent. Wer möchte, kann natürlich auch Nvidia DLSS, AMD FSR 2 oder Intel XeSS nutzen, welche eine bessere Qualität, aber keine so großen Leistungsgewinne erzielen."

Was genau verstehst du an dem Satz nicht?

wenn, dann nimmt man jeweils das Verfahren, was einem die maximale FPS Zahl erreichen lässt.
Zitat aus dem Artikel:
"Wer möchte, kann natürlich auch Nvidia DLSS, AMD FSR 2 oder Intel XeSS nutzen, welche eine bessere Qualität, aber keine so großen Leistungsgewinne erzielen."
Ergo, du hast richtig kombiniert - man nimmt das Verfahren, was einem die maximale FPS Zahl erreichen lässt...

Das verfälscht sicherlich komplett die Rangliste.
Nein, tut es nicht. Die Rangliste bleibt quasi identisch. Die Abstände von den High-End zu den Mittelklasse und Low-End Karten wird geringer, das stimmt. Aber das eine komplette Verfälschung zu nennen? Gerade, wenn die Rangliste als solches sich gar nicht verändert...

Keine Ahnung warum man mal mit und mal ohne FSR 1.0 (dachte FSR 2.0 ist schon länger da?) testet.

Es gibt sehr gut optimierte Engines (siehe Doom Eternal) bei denen bringen auch die Low-End Karten hohe (80-100) FPS in FHD zu stande. Da benötigt man kein Upsampling (also nicht nur auf den Benchmakr bezogen, sondern auch auf das reale Leben). Und dann gibt es wiederum Spiele, die quasi "nicht" optimiert sind (siehe Cyberpunk 2077), bei dem die Low-End Karten mit FSR 1.0 gerade mal 30-40 FPS schaffen. Natürlich könnte man dort auch 15-20 FPS hinschreiben ohne FSR 1.0, aber das würde halt tatsächlich niemand machen, der eine solche Grafikkarte hat...

Vielleicht das nächste Mal einfach @PCGH_Raff fragen, wie sich die Rangliste denn ohne Upsampling verändern würde. Das führt sicherlich zu einem konstruktiverem Ergebnis, als zu behaupten das würde alles verfälschen...
 
[...]

Vielleicht das nächste Mal einfach @PCGH_Raff fragen, wie sich die Rangliste denn ohne Upsampling verändern würde. Das führt sicherlich zu einem konstruktiverem Ergebnis, als zu behaupten das würde alles verfälschen...
Da kam ja schon die Antwort, brauche also nichts "zu behaupten". Allerdings ist mir weiterhin nicht klar, ob FSR 1.0 sich nicht unterschiedlich gut je nach Grafikkarte anwenden lassen kann. Also bspw. ob AMD Karten besser mit FSR 1.0 zurecht kommen. Ich weiß auch nicht, wieviel CPU-Last FSR 1.0 erzeugt, und ob das auch einen Einfluß auf die Ergebnisse hat. Da Du aber alles wohl besser weißt, kannst Du mir ja schreiben, ob und wie das Ergebnis dadurch beeinflusst wird. Denn dass es gar kein Einfluß hat, welche Grafikkarte man dazu/dafür nimmt, ist wohl nicht zu erwarten.
 
Da kam ja schon die Antwort, brauche also nichts "zu behaupten". Allerdings ist mir weiterhin nicht klar, ob FSR 1.0 sich nicht unterschiedlich gut je nach Grafikkarte anwenden lassen kann. Also bspw. ob AMD Karten besser mit FSR 1.0 zurecht kommen. Ich weiß auch nicht, wieviel CPU-Last FSR 1.0 erzeugt, und ob das auch einen Einfluß auf die Ergebnisse hat. Da Du aber alles wohl besser weißt, kannst Du mir ja schreiben, ob und wie das Ergebnis dadurch beeinflusst wird. Denn dass es gar kein Einfluß hat, welche Grafikkarte man dazu/dafür nimmt, ist wohl nicht zu erwarten.
Uiuiui,
ich wollte dir mit meiner Antwort nicht auf den Schlips treten, sondern zum einen darstellen, dass die meisten deiner Fragen im Text beantwortet wurden und es zum Anderen immer Sinn macht Fragen zu stellen, bevor man etwas unterstellt... Mit der provokanten Schreibweise, die du in deinem Kommentar gewählt hast solltest du damit zurecht kommen, wenn eine derart formulierte Antwort darauf folgt.
Ich weiß jetzt nicht wirklich, wie du darauf kommst dass ich "aber wohl alles besser weiß". Ich habe halt den Artikel gelesen.

Wenn du gerne genauer wissen möchtest, wie sich FSR 1.0/2.0 und DLSS 2.0/3.0 auf verschiedenen Grafikkarten verhalten kann ich dir nur empfehlen die PCGH Print regelmäßig zu lesen, da es immer wieder Artikel über die verschiedenen Upsampling Verfahren und deren Vergleiche (sowohl, was Optik, als auch was Performance betrifft) gibt. Außerdem gibt es diese Artikel auch als "PLUS" Artikel auf der Homepage, einfach mal FSR oder DLSS in die Suche eingeben. Da kommen einige sehr interessante Artikel.

Laut den Benchmark-Ergebnissen von PCGH ist FSR 1.0 das Verfahren, welches auf AMD und Nvidia Karten das ähnlichste Ergebnis erzielt.

Hier ein Beispiel:
Deathloop:
RX 6800 XT / 4K TAA Nativ: 57,2 FPS
RX 6800 XT / 4K FSR 1.0 Quality: 82,5 FPS (+57%)
RTX 3090 / 4K TAA Nativ: 74,4 FPS
RTX 3090 / 4K FSR 1.0 Quality: 114,6 FPS (+54%)

Bei FSR 2.0 liegt der FPS-Gewinn bei der RX 6800XT 6% höher, als bei der RTX 3090. Außerdem ist die CPU-Last bei FSR 1.0 am niedrigsten von den Upsampling Verfahren. Ich denke das hat alles in die Entscheidung mit reingespielt FSR 1.0 zu wählen. Aber das ist nur meine Vermutung.

Falls dich das Thema interessiert kann ich dir nur ans Herz legen die Artikel dazu zu studieren. Das ist wirklich sehr interessant, was die PCGH da schon alles zu veröffentlicht hat.
 
@LPFlexMan Danke. D.h. also, FSR 1.0 läuft auf allen Grafikkarten gleich gut (das Verhältnis von "ohne FSR 1.0" vs. "mit FSR 1.0" ist gleich ?) ? In der Praxis wird es wohl so sein, dass jemand, der die Möglichkeit hat, FSR 2.0 (oder höher) zu benutzen, es auch anwenden bzw. wählen wird. Der Punkt ist doch, dass FSR 1.0 so gut wie gar nicht mehr genutzt wird, sondern wenn möglich DLSS 2/3 oder FSR 2.x, d.h. der praktische Nutzen des Tests mit einem Verfahren, welches selten noch zu Zuge kommt, ist doch recht klein. Warum ist die Idee, das jeweils beste Verfahren, was möglich ist, im Test pro Grafikkarte anzuwenden, falsch?
 
D.h. also, FSR 1.0 läuft auf allen Grafikkarten gleich gut (das Verhältnis von "ohne FSR 1.0" vs. "mit FSR 1.0" ist gleich ?) ?
Zumindest nahe dran. Die Vergleiche, die ich von Nvidia und AMD Karten mit FSR 1.0 finden konnte haben sich im bereich von 2-4% bewegt. Genaueres dazu kann höchstwahrscheinlich @PCGH_Raff sagen. Ich denke mal der hat mehr Graka-Vergleiche mit FSR 1.0 gesehen, als ich ;-)

In der Praxis wird es wohl so sein, dass jemand, der die Möglichkeit hat, FSR 2.0 (oder höher) zu benutzen, es auch anwenden bzw. wählen wird.
Auf jeden Fall. Das sehe ich genau so. Ich kann mir nur vorstellen, dass es etwas mit der Vergleichbarkeit zu tun hat, da die Unterschiede von Nvidia zu AMD Karten mit FSR 2.0 größer sind, als mit FSR 1.0 (in den Vergleichen, die ich gefunden habe lagen die Leistungsgewinne mit FSR 2.0 bei AMD Karten von 6%-10% höher, als bei Nvidia Karten). Und da denke ich ist es dann der Kompromiss, auf den sich die PCGH Redakteure geeinigt haben das Verfahren zu wählen, welches allen Grakas einen fast identischen Bonus gibt, der auch nicht zu weit von den höherwertigen Upsampling Verfahren entfernt ist.
Allerdings hat PCGH_Raff ja geschrieben, dass demnächst eine Überarbeitung des Raytracing-Leistungsindexes ansteht. Vielleicht einigt sich die Redaktion ja darauf in Zukunft jeder Karte die bestmögliche Upsampling-Variante zur Seite zu stellen - Radeon RX6xxx mit FSR2.0 Quality (oder dann schon 3.0) / RTX 20xx & 30xx mit DLSS 2.0 Quality / RTX 40xx mit DLSS 3.0 Quality. Das wäre dann definitiv praxisnäher. Und das jeweils Highend-Modell (z.Zt. 4090 & 7900 XTX) einmal noch nativ ohne Upsampling Verfahren...

@PCGH_Raff - Was hälst du von dem Vorschlag? Könnte man doch mit in die Diskussion nehmen, oder?
 
Also ich habe schon mit meiner alten 2070er mit RT gespielt, kein Problem.

Und dp1.4a + DSC kann 4k/240+10bit, kommt nicht Mal die 4090er ansatzweise Ran.
Aber nur mit Komprimierung

"DSC handelt es sich um eine verlustbehaftete Kodierung"

Nativ geht es nicht mit DP1.4a

DP1.4a habe ich schon und die neuen Monitor kommen mit DP2.1 ( der neue G9 zb.)

Wenn ich also Nativ 5120x1440 mit 10BIT oder 12BIT @240HZ haben möchte geht das nicht mit DP1.4a

 
So wie hier CP 2077 getestet ( als Beispiel ) wurde finde ich es noch besser gelöst https://www.digitaltrends.com/computing/cyberpunk-2077-pc-performance-guide/
Das ist auf jeden Fall ein sehr ausführlicher und spannender Test. Allerdings derzeit wohl kaum durchführbar für das PCGH Team bei der Bandbreite an neuen Karten, die in alle Benchmark Szenarios eingebettet werden wollen. Da spielt das Thema Zeit und Überstunden, glaube ich, die entscheidende Rolle…
 
Die Preisleistungstabelle ist ja "ganz nett", aber eigentlich komplett sinnfrei. Die Preise sind selten genau dort wie in der Tabelle angegeben.
Da sollte sich jeder selbst die Mühe machen und über die FPS Tabelle selbst ausrechnen, wie viel FPS man für sein € bekommt.
 
Das einzige Spiel, das ich bisher mit Raytracing probiert habe, ist nicht in der Liste. Minecraft. :ugly:

Aber das verfälscht alle FPS Ergebnisse in Spielen je nach Auflösung um 20- 44 % was im Text nicht erwähnt wird !

Für mich sind es jetzt nur GPU Fake "FPS-Benchmarks" welche die zu hohen Preise der "Mittelklasse" GPU's schmücken und rechtfertigen sollen.

Das hier.
FSR 1.0 ist unbrauchbar, die Bilqualität wird dadurch vollkommener Dreck. Noch schlimmer als mit DLSS 1.0 und das war schon ziemlicher Shit.
Bevor ich mit FSR 1.0 spielen muss, spiel ich das Spiel erst gar nicht.

Bei FSR 2.0 und DLSS 2.0 in den höchsten Einstellungen wäre das natürlich wieder anders, die könnte man als zusätzliche Benchmarks zu native machen.

Kann mich nicht erinnern, das meine GTX970 damals (von November 2014 bis Mitte 2017 besaß ich den Speicherkrüppel) untergegangen ist. In 99% aller Fälle war/ist die Pixelschubse eh an sich zu langsam, bevor der (kleinere) Speicher limitiert...

Dann hattest du halt Glück, dass du nicht in Auflösungen gespielt hast, in denen die letzten 500MB Speicher auch angezapft wurden.
Bei mir wurde z.B. GTA V zur absolute Nachladeruckelorgie trotz 50+ Durchschnitt-FPS, weil das Spiel immer irgendwo bei 3,3 bis 3,7GB VRAM Benützung lag.
In 1080p fällt einem das nicht so schnell auf, aber in 1440p war das mehrfach der Fall. Ganz besonders schön und irritierend war es, wenn ich 90+ FPS hatte auf meinem 144 Hz Monitor und es dann immer wieder, konstante Einbrüche gab.
Für manche Spiele gab es dann per Treiber Limitierungen auf 3,5GB. Sehr schön!

Für mich war das der Sargnagel, dass ich dem kundenfeindlichen Sauladen nie mehr direkt Geld geben werde.
 
Zuletzt bearbeitet:
Zurück