Das ist tatsächlich ein Bug. Ich habe die Karte vor ein paar Tagen komplett nachgetestet (Raster & Ray) und in den Indizes ist sie auch zu finden. Sie fehlt "nur" in den Spiele-Tests. Kommt dann als Update.ich vermisse in sämtlichen benchmarks immer die non-XT RX, wie in meinem fall die RX 6800.
Darüber habe ich breit und mehrfach nachgedacht und bin erneut zum Ergebnis gekommen, dass niederkeulende "MAXED OUT"-Benchmarks nur wenigen Leuten helfen. Wir wurden in der Vergangenheit öfter dafür kritisiert, dass wir Spiele gezielt nach den anspruchsvollsten Szenen absuchen und dann mit maximalen Details testen. Das sei praxisfern, so die Kritik einiger Leser. Auch wenn ich persönlich nicht zustimme: Am Ende testen wir ja nicht für unser persönliches Vergnügen, sondern für möglichst viele Leute. Bestimmte Qualitätsstandards (wie die eigenen Benchmarkszenen anstatt generischer Flybys) sind unumstößlich, aber die Settings dürfen gerne auch mal "alltagstauglich" sein. Viele Zocker sind an Raytracing interessiert, nehmen aber die immensen Leistungskosten nicht in Kauf. Da hilft es, wenn man durch smarte Settings ein etwas freundlicheres Bild zeichnet, anstatt alles niederzustrecken. Für die Benchmark-Revision in einigen Monaten kommt die Debatte dann wieder auf den Tisch und wir schauen mal. Die Wahrscheinlichkeit, dass erneut moderate Einstellungen in den Indizes zum Einsatz kommen, welche mit sporadischen, anlassbezogenen Extremtests ergänzt werden, ist aber hoch.Aber das verfälscht alle FPS Ergebnisse in Spielen je nach Auflösung um 20- 44 % was im Text nicht erwähnt wird !
Für mich sind es jetzt nur GPU Fake "FPS-Benchmarks" welche die zu hohen Preise der "Mittelklasse" GPU's schmücken und rechtfertigen sollen.
Bitte überdenkt es nochmal und testet die Spiele nur in nativer Auflösung auch wenn dadurch die "Mittelklasse"-GPU's katastrophal in "anspruchsvollsten" Spielen durchfallen.
In Full HD relativ oft, darüber hinaus entspannt sich die Lage aber. Der von uns genutzte 12900K ist zwar nicht mehr der Jüngste, aber ordentlich ausgereizt. Wäre die Lage anders, hätte es eine Benchmark-Revision gegeben - wie beim Rasterizing geschehen.Wie oft hängt man mit der 4090 hier im CPU-Limit?
Die RTX 3060 Ti ist eines der Modelle, welche ich gerne öfter testen würde, aber die RTX 3070 interessiert am Ende mehr Leute. Und da Zeit begrenzt ist ... altes Problem. Zieh einfach 10-15 Prozent ab und du hast die Ti. Mathe regelt.Ich fände das P/L-Verhältnis der 3060 ti gerade im Vergleich zur 3060 12 GB interessant zu sehen, ggf. könnt ihr das noch ergänzen. Das dürfte wohl über dem der 3070 und eventuell auch besser als das der 4070 ti sein?
Wie, geworden? Diese Werte gab's schon im Launch-Test. Bisher kam auch kein "Wundertreiber", der die bestehenden Schluckäufchen beseitigt.Warum ist die Leistung der 7900er Karten bei Cyberpunk denn jetzt so schlecht geworden?
Das war doch angeblich das Vorzeigeobjekt der Leistungszuwächse gegenüber der alten 6900er?
War nicht mal von bis zu 70% oder so geredet worden? Im Schnitt 50%. Hier sehe ich jetzt schlappe 30%?
Knuffiges Teil. Sampled Nvidia aber nicht, da ist es schwer heranzukommen. Oder hast du eine, leihweise?Interessant wäre auch die einzige SFF Grafikkarte in den Vergleich aufzunehmen: RTX A2000. Es ist zwar eine Workstation Grafikkarte, aber kleinere Raytracing Karten existieren meines wissens nicht.
Du kannst alles mit generalisierten Rechenwerken machen. Früher gab es Raytracing-Demos, die rein auf der CPU liefen. War halt nie effizient und somit schnarchlangsam. Erst der aktuelle Ansatz aus Hybrid-Rendering, den damit verbundenen Vereinfachungen und speziellen Rechenwerken brachte den Durchbruch für die Echtzeitanwendung. Die Tatsachen bleiben: Ohne Raytracing wird munter geschummelt und die Beleuchtung ist statisch - eben weil kein Licht simuliert, sondern vorgegaukelt wird."Das ist gut so, denn althergebrachte Rasterisierung (Rasterizing) erzielt nur dank cleverer Fakes ein hübsches Bild"
@Raff
Dass es eigentlich auch ohne RT Cores geht/ginge, weißt aber schon ?!?
Das Video (Link) entstand einer Vega 56 (mit 8 GB) !!
(Bevor ein anderer einhakt und zu Recht behauptet, dass auch beim Raytracing geschummelt wird: Ja - aber nicht beim Grundprinzip, sondern nur bei der Präzision. Es werden Pixel und somit Strahlen gespart, zeitlich über Frames akkumuliert, interpoliert et cetera. Ansonsten wäre die Sache immer noch von echtzeittauglichen Bildraten entfernt.)
Ist der Ruf denn schlecht? Die Leute sind zu Recht skeptisch. Aber bereits zum Launch der A7-Modelle im Oktober war vieles besser als erwartet - und die vielen Treiber-Updates der letzten Monate haben auch sehr geholfen. In Kürze gibt's wieder mehr Arc. Kompatibilität und Leistung. Klappt alles, dann schon diese Woche die erste Fuhre.Ich gönn es ja den ARC GPUs hier, die sind eigentlich längst nicht so übel wie Ihr Ruf mittlerweile.
MfG
Raff