Weißt du wann ich das letzte mal in Full HD gespielt habe? Muss so 2013 gewesen sein! In etwas gescheiterer Auflösung (2560*1440) wird das ganze nämlich schon extrem zäh:
Hier schafft eine 2080 Super mit DLSS Quality 27,1 fps (Perzentil).
Sinnvoll nutzbar auf einem qualitativ hohen, wenn auch nicht perfekten Niveau ist Raytracing in Cyberpunk 2077 entsprechend ab einer GeForce RTX 2080 Super oder einer GeForce RTX 3060 Ti. Auch langsamere Grafikkarten bis hinab zur GeForce RTX 2060 Super können RT in dem Spiel flüssig darstellen, es müssen dann aber qualitative Verluste an anderer Stelle in Kauf genommen werden. Raytracing ohne Einschränkungen bis hinauf zu WQHD ist mit einer GeForce RTX 2080 Ti oder mindestens einer GeForce RTX 3070 möglich. Ist Ultra HD die Zielauflösung, sollte es bei RT Ultra gleich eine GeForce RTX 3090 sein, RT Mittel läuft ab einer GeForce RTX 3080 ordentlich.
Damit dürfte meine Aussage zumindest mal belegt sein, dass eine ganze Menge der Karten eben nicht ausreichen um RT sinnvoll einzusetzen. Du sprachst von über 20% der Karten die RT können, ich sprach davon, dass viele der Karten nicht ausreichend sind um RT auch sinnvoll einzusetzen. Wenn wir dem Fazit eines anderen Magazins einfach mal Glauben schenken, sind es plötzlich unter 10% der Karten die es wirklich nutzen können, bei allen anderen muss man für RT auf anderes verzichten und dann wird irgendwie für mich einfach kein Schuh draus, ist ungefähr so als wenn ich ein Elektroauto kauf und dann nur 70 PS hab, macht irgendwie kein Spaß!
und es bleibt anscheinend bei 1 pro GPU
ist hier nicht von einer potenziellen 7950XT mit zweien die Rede gewesen?
CPUs mit GPUs vergleichen ist aber eh Unsinn.
Null verstanden, es ging nicht um den Vergleich von A und B, es ging darum zu zeigen, dass ein Hersteller zehn Jahre lang führend sein kann und vieleicht auch gar nicht mehr gewohnt ist, das Maximum herauszuholen, weil man sich ausgeruht hat und die 10-15% Mehrleistung je Gen gereicht haben.
mit den Shadern wird vermutlich kein revolutionärer Schnellkochtopf
Nochmal der Verweis auf RDNA 1 und RDNA 2, beides sind Modelle die grds. keine groben Abweichungen erkennen lassen, dennoch gab es eine Explosion in Sachen Leistung und Effizienz. Aktuell geht vieles im Bereich des PCs über die Effizienz (da man dann nochmal an der Schraube drehen kann und mehr Leistung holen wird), da sage ich, dass die 4xxxer Karten kein großer Wurd sind, 25% haben wir an anderer Stelle schonmal gerechnet, was ziemlich wenig ist für einen Fertigungsschritt von 8nm auf 4nm. Wenn AMD die 15-20% aus der Fertigung (hier ja nur von 7 auf 5) konsequent mitnimmt, würde das schon reichen um im Punkt Effizienz gleichzuziehen, wenn dann noch ein Schritt ala RDNA 1 auf 2 kommt, (wo es reichlich 50% waren) wird es im schlimmsten Fall eine 6950XT mit 225W geben (womit mal mind. 4080 16GB Niveau gemeint ist).
Die Gerüchte geben es zumindest her, fraglich bleibt nur ob in der Spitze die 4090 angegriffen werden kann, die aber wohl für 99% der User eher unereichbar teuer ist!