News AMDs Ryzen 9 7950X3D ... - Das sagen die PCGH-Redakteure dazu

Hatte doch PCGH_Torsten auf den Punkt bzw. auf die Punkte gebracht. Wobei ich bei Punkt 5 doch widersprechen würde, hängt aber wohl davon ab, wie man "wirklich gut" definiert. Als eierlegende Wollmilchsau sicher, aber für das Geld kann man auch den 5800X3D kaufen und hat dann noch knapp 700€ für einen zweiten PC übrig.

Und ob ich unbedingt noch mehr Frames im CPU-Limit brauche, eher nicht.
Auflösung rauf, Upsampling aus, Raytracing an.
Ich glaube dann langt auch wieder die 10 Jahre alte CPU mit nur 4 Kernen.

Zu (PCGH_Torstens) Punkt 1, ich denke das trifft leider auch auf GPUs zu. Und da verstehe ich es auch nicht, wenn AMD einerseits keine Modifikationen mehr erlaubt, nach oben wie nach unten, und dann aber wieder die Balkengröße über Sweet Spot siegt. Egal, sollen se ihren Mist selber benchen.
 
Leider gilt die Regel "Raytracing = GPU-Schmerz" nicht uneigeschränkt. Raytracing keult Prozessoren oft mehr, als man annehmen könnte. Das liegt nicht nur am zusätzlichen Berechnungsaufwand an sich, sondern auch daran, dass Engines wie die UE4 mit Raytracing gerne "Schluckauf" bekommen.
Meinst Du damit das Shader Compilation Stuttering, was in letzter Zeit gehäuft aufgetreten ist?

Da ich Spiele selten direkt zum Release spiele, sondern meist so mit 2-3 Jahren Versatz, bin ich gespannt, ob dieses "Schluckauf"-Verhalten auch mit zukünftigen CPUs bestehen bleibt (die dann entsprechend leistungsstärker sind) oder ob das Problem ungeachtet von Leistung X, die man draufwirft, weiterhin bestehen bleibt, weil es einfach an Engines liegt, die mit Raytracing nicht so gut harmonieren.

Wenn ich mir anschaue, wie toll es beispielsweise in Control mit der Northlight-Engine läuft und dass ich da selbst mit meiner "alten" 14nm-CPU dreistellige Bildraten mit smoothen Frametimes erziele, muss es ja an "ungeeigneten" Engines liegen, die einfach nicht in Hinblick auf die Verwendung von Raytracing hin programmiert wurden sind bzw. auf welchen die nachträgliche Implementierung von RT verdammt teuer wird - gerade eben für die CPUs, wie man ja vor allem bei Hogwarts Legacy sieht.
 
Ich habe bewusst "Schluckauf" geschrieben, da ich nicht ausschließlich den (von Digital Foundry passend benannten) #stutterstruggle meine. :-) Ruckler durch nicht vorgeschaltetes Shader-Compiling sind ein Problem, doch gerade bei der Unreal Engine 4 scheint noch mehr im Argen zu liegen. Schaltet man Raytracing ein, wird das ohnehin maue Multithreading noch mieser, es limitieren wenige Threads. Ich kann nur spekulieren, was da faul ist, und lasse es daher. Die Ruckler nehmen jedenfalls zu und man merkt, dass große Teile des Rechners Däumchen drehen, was unschön ist.

Das lässt sich auch nicht "wegbruteforcen", wie man milchmädchenhaft ausrechnen kann. Wenn ich auf einem High-End-Prozessor beispielsweise Nachladeruckler von 133 Millisekunden habe (dauerhaft entspräche das 7,5 Fps), bräuchte ich einen doppelt so schnellen Prozessor, um die Zeit zu halbieren. Der Spike um 67 Millisekunden wäre aber immer noch ungeil, weil deutlich fühlbar (15 Fps), also wünsche ich mir besser die vier- bis achtfache Leistung. Hier muss einfach optimiert werden.

MfG
Raff
 
Alles klar, ich sehe das Problem. Auf die vier- bis achtfache CPU-Leistung will man dann doch nicht warten. Das könnte zu lange dauern. :D

Hoffentlich macht die UE5 das alles besser, gerade, wenn man sich mal anschaut, wie viele Entwicklerstudios jetzt auf diese setzen...
 
Leider beachtet niemand bei diesen lustigen Vergleichen, dass die CPU allein nicht funktioniert. Das tut die Grafikkarte auch nicht, allerdings ist eine 800-Euro-CPU in etwa so, als würde man bei Nvidia für 2.000 Euro nur den AD102 kaufen. Platine, Speicher und Kühler kosten extra. Das wäre schon irgendwie geil, wenn man sich seine Grafikkarte so zusammenbauen kann, allerdings ist das eben nicht so. ;) Wenn das Gesamtpaket für einen High-End-Prozessor weit in den vierstelligen Bereich geht (wo ich z. B. niemals mitgehen würde) und der Nutzen für Spieler im Zweifel geringer ist als bei einer High-End-Grafkkarte, ist die Frage um den Hype und das Maß meiner Meinung nach absolut berechtigt.

MfG
Raff

Doch, strenggenommen funktionieren die CPUs mittlerweile auch ohne GPU. Geforce und Radeon weigern sich dagegen beharrlich, eine ICP zu intergieren. Das mit den Laufwerks- und USB-Anschlüssen an Grafikkarten hat sich auch nicht wirklich durchgesetzt. Da stellt sich direkt die Frage, warum du eigentlich Mainboards als Unterbau für CPUs zählst und nicht als Unterbau für Grafikkarten? :-)

Zudem steigert die Modularität, die man bei CPU/Mainboard/RAM mitbezahlt, deren Langlebigkeit. Mein Mainboard ist Geburtsjahr 2015, seitdem hat sich die Zahl der aktiven Kerne verdoppelt, der RAM 3-4 Jahre alt und immer noch groß genug. Ein gewisser GPU-Fachredakteur nutzt immerhin eins von 2020 und mit Ausnahme von PCI-E 4.0 nutzt er dabei effektiv kaum etwas, was nicht auch die Vorgängerplattform (bei höherem, aber noch weit unter GPU-Niveau liegendem Stromverbrauch) hätte leisten können. Da fällt es Grafikkarten schwer, mit zu halten. Die müsste man eigentlich eher mit Konsolen vergleichen. Da passt dann auch das einseitige Einsatzgebiet – aber weiterhin nicht das Preis-Leistungsverhältnis. Bei CPUs werden die überteuerten High-End-Modelle nämlich oft als Vorboten der nachfolgenden Mittelklasse mit sehr ähnlicher Leistung zum halben Preis gefeiert.
 
Zurück