Special The Thaumaturge im Tech-Test: Atmosphärisches UE5-Hexerwerk mit Frame-Gen-Stottern

Natürlich weiß ich das, nur mal ganz ehrlich, kennst du irgendjemanden auf dem Planeten der DDR5 4400 nutzt? XD
Zumindest kenne ich einige die 4800MTs nutzen.
Und außerhalb unserer Bubble wohl auch nicht ungewöhnlich.

Bzw poste mir mal ein Kit mit 4400 DDR5 aus einem shop hier in DE :D
Alle? Nennt sich jedec.
Für JEDEC brauchst du kein XMP/EXPO Müll Profil, das können alle Kits.
 
Zuletzt bearbeitet:
Nicht schon wieder die RAM-Diskussion :heul:
Hehe, alle Jahre wieder :D
Ist aber trotzdem etwas fern ab der Realität 4400DDR5 zu nutzen, ich kenne absolut niemanden der das nutzt und ja 4800er User wird es wohl geben aus der Zeit wo DDR5 frisch auf den Markt kam, mittlerweile rennt doch der billigste Kram schon mit 6000MHz. Wie ist das eigentlich mit DDR5 (hatte ja noch nicht das Vergnügen), wenn ich da XMP etc pp nicht aktiviere, läuft der dann mit 4400, oder gar noch langsamer?
Die RAM "Diskussion" können wir damit auch abschließen, ich weiß ja wie PCGH dazu steht und es ist auch absolut legitim, nur es kocht halt immer wieder mal auf, wenn ich unsere Resultate vergleiche (also euren 12900k stock vs meinen tuned 12700k), der 12700k hier ist ja rund 25% bei den AVG schneller und bei den lows auch stolze ~35% und der Großteil dieses Uplifts kommt ja vom ollen optimierten DDR4 RAM, aber gut, ich bin ja schon ruhig.
 
Erstmal Danke für den Test und vor allem für die Arbeit, den 5780c mit zu testen. Schon direkt am Anfang, als ich 7800X3D und 14900K gesehen habe, dachte ich mir, das diese CPU eigentlich auch rein müsste. Dann scrollen ich runter und plötzlich ist der da wirklich. :wow:
Ein super cooler Moment. Danke auch dafür. :nicken:

Edit
Nochmal gelesen, alles klar.
 
Nicht schon wieder die RAM-Diskussion :heul:
Welche Settings genau nimmst du? Ich habe jetzt mit meiner CPU@Stock (+6000er EXPO RAM) folgende Werte, die nicht zwingend plausibel erscheinen:
1709754720929.png


Eingestellt habe ich alles Ultra, 720p, DLSS Ultraperformance.

Ich hab zwar aus Faulheit meine Hintergrundprogramme nicht beendet, aber macht das soviel aus?
 
Welche Settings genau nimmst du? Ich habe jetzt mit meiner CPU@Stock (+6000er EXPO RAM) folgende Werte, die nicht zwingend plausibel erscheinen:
Anhang anzeigen 1454706

Eingestellt habe ich alles Ultra, 720p, DLSS Ultraperformance.

Ich hab zwar aus Faulheit meine Hintergrundprogramme nicht beendet, aber macht das soviel aus?
DLSS und FG aus 720p und Rest maximiert. Hier sieht man ja die PCGH Settings:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Welche Settings genau nimmst du? Ich habe jetzt mit meiner CPU@Stock (+6000er EXPO RAM) folgende Werte, die nicht zwingend plausibel erscheinen.
Nee, also da muss irgendwas kaputt sein bei dir. Oder das Spiel läuft auf den Nicht-3D-Kernen? Settings auf höchster Stufe und dann 720p einstellen, wie im Video.

Hier, was mein 7800X3D packt, deiner müsste ja irgendwo auf dem Niveau laufen:

1709755039254.png
 
Nee, also da muss irgendwas kaputt sein bei dir. Oder das Spiel läuft auf den Nicht-3D-Kernen? Settings auf höchster Stufe und dann 720p einstellen, wie im Video.

Hier, was mein 7800X3D packt, deiner müsste ja irgendwo auf dem Niveau laufen:

Anhang anzeigen 1454707
Hmm merkwürdig, dass der 7800X3D mit 5200er RAM (untuned) aus dem Test sogar minimal schneller ist als deine CPU. Kann das so stimmen?
 
Kann schon sein, es wäre auch nicht ungewöhnlich, weil das bei verschiedenen Spielen passiert. Die CPUs teste ich aber fürs Erste nicht nach, aktuell widme ich mich wichtigeren Aufgaben. Mal sehen, wie sich das Spiel entwickelt und ob es in zwei Monaten überhaupt noch jemand spielt. Wir testen auch gern mal ein Spiel nach ;-)
 
Meh, nun wollte ich testweise per ryzenmaster mein SMT ausschalten. Nach nicht erfolgtem Boot des PCs und CMOS clear gucke ich gleich nochmal.
Nee, also da muss irgendwas kaputt sein bei dir. Oder das Spiel läuft auf den Nicht-3D-Kernen? Settings auf höchster Stufe und dann 720p einstellen, wie im Video.

Hier, was mein 7800X3D packt, deiner müsste ja irgendwo auf dem Niveau laufen:

Anhang anzeigen 1454707


So, mittlerweile bin ich hier angelangt. SMT ausschalten macht meine CPU gerade irgendwie nicht mit, der Rechner bootet dann nicht mehr und ich muss n CMOS - REset machen. Einstellungen sind daher wieder komplett default nur EXPO enabled.
1709758978242.png



Nachtrag: ich hasse und verabscheue den RyzenMaster. Nun nimmt er nicht Mal mehr meine CurveOptimizer-Einstellungen und ballert mir wieder einen Bootloop ins Gesicht. Gnaaaaaaarf.

Aber ja, scheinbar läuft das Game auf dem falschen CCD bzw. auf beiden ich krieg es nicht auf den richtigen fixiert, da jede Einstellung im verf***** Ryzentool mir alles zerhaut und ich n CMOS Clear machen muss.
 
Zuletzt bearbeitet:
Für mich persönlich hat DLSS (aber auch DLAA) ein riesen Problem. Der Umgang mit "Specular Highlights", aus irgendeinem Grund stechen die extrem hervor in Form von hellen Lichtpunkten. Besonders extrem wird es dann in Kombination mit HDR weil die dann durch die sehr hohe Helligkeit extrem hervorstechen. Die Auflösung ist dabei völlig egal. Nativ oder mit FSR tritt das nicht auf. Sehr gut sichtbar ist das z.B. bei Wasserflächen. Ich schaue mal dass ich das bei Zeiten vllt in einem Video festhalten kann.
Bei DLAA hab ich das auch schon öfter gesehen/gehabt. Bei DLSS gibt es ab und an Artefakte, wo irgendwas aufblitzt. Das ist relativ typisch, stimmt. Aber das ist normalerweise nicht so auffällig/störend, ist eher so wie ein zusätzlicher Akzent (zumindest in den Beispielen, die mir einfallen, eventuell gibt es auch gröbere Ausreißer).

Wie hier (das ist aber eher mild, das sieht fast aus, wie so gewollt, halt mit einer Extra-Dosis Michael Bay, oder so).
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das finde ich weniger störend (außer, es fliegt halt mal ein relativ grobes Artefakt-Glühwürmchen sehr auffällig durch die Szene, aber das ist wirklich selten).

Die fast wie krass überschärft hervortretenden Highlights bei DLAA (zumindest zum Teil, so oft teste/nutze ich das nicht) finde ich persönlich störender. Aber das ist wahrscheinlich auch ein wenig Geschmackssache. Wie generell bei ein bisschen beim Thema Schärfe/Unschärfe/Nachschärfen (Quenue the Reddit-Anti-TAA-Miliz^^)

Gruß,
Phil
 
Unsere gute UE5 zeigt sich bei dem Titel mal wieder von ihrer Schokoladenseite :crazy:. Die allgemeine Darbietung der Engine über alle bisherigen Titel hinweg ist eine Katastrophe, hab jetzt schon keinen Bock mehr auf die UE5.

Das Bild mit den fehlenden Schatten ist auch besonders übel, könnte glatt von einem PS3 Spiel kommen. Fehlende Schatten und nicht vorhandenes AO waren prägend für die Xbox 360/PS3 Ära. Frage mich auch wie unter Verwendung von Lumen solche Ergebnisse überhaupt möglich sind ...
 
Witzig ist, dass hier ist die Sensordata von CapframeX von dem letzten Run:

1709761157875.png



Meh. Sobald RyzenMaster aufhört rumzuzicken versuche ich noch einmal, das nicht Cache-CCD auszuschalten.
 
Nachtrag: ich hasse und verabscheue den RyzenMaster. Nun nimmt er nicht Mal mehr meine CurveOptimizer-Einstellungen und ballert mir wieder einen Bootloop ins Gesicht. Gnaaaaaaarf.

Aber ja, scheinbar läuft das Game auf dem falschen CCD bzw. auf beiden ich krieg es nicht auf den richtigen fixiert, da jede Einstellung im verf***** Ryzentool mir alles zerhaut und ich n CMOS Clear machen muss
Und genau deshalb benutzt man RM nicht ^^
Immer alles im BIOS machen
mittlerweile rennt doch der billigste Kram schon mit 6000MHz.
Mir sind keine DDR5-12000 Module bekannt, gibts da einen Link?
(Sorry, der musste sein :ugly: )


Wie ist das eigentlich mit DDR5 (hatte ja noch nicht das Vergnügen), wenn ich da XMP etc pp nicht aktiviere, läuft der dann mit 4400, oder gar noch langsamer?
Bei AM5 zumindest mit 4800MTs

Die RAM "Diskussion" können wir damit auch abschließen, ich weiß ja wie PCGH dazu steht und es ist auch absolut legitim, nur es kocht halt immer wieder mal auf, wenn ich unsere Resultate vergleiche (also euren 12900k stock vs meinen tuned 12700k), der 12700k hier ist ja rund 25% bei den AVG schneller und bei den lows auch stolze ~35% und der Großteil dieses Uplifts kommt ja vom ollen optimierten DDR4 RAM, aber gut, ich bin ja schon ruhig.
Nunja, auch "niemand" (in unserer Bubble) nutzt DDR5-5200 auf Zen4.
Irgendwo muss man ja eine Basislinie schaffen.
Gab übrigens auch schon Artikel in denen ein optimierter 13900K angetreten ist. Das wäre dann wohl das was du suchst.
Allerdings auch nur mit XMP
 
@derneuemann @PCGH_Raff
Ich habe die Probleme mit den "specular highlights" von DLSS mal auf Video festgehalten. Youtube ist noch am verarbeiten, kann also noch ein paar Minuten dauern bis es in guter Qualität verfügbar ist:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Ist mir in meinen Spielen noch nicht so aufgefallen und ganz am Anfang im Video hätte ich auch denken können, das es so soll, wegen Sonne vom Wasser gespiegelt und dadruch geblendet ;)

Danke, werde ich mal verstärkt drauf achten.

Grundsätzlich würde ich dabei aber denken, das dieses Verhalten in Software gefixt werden kann. (Treiber, oder Spieleimplementierung)
Die CPUs werden nach Spezifikation getestet, solltest du wissen.
Dann würde ich sagen, der 78x3D verdient auch händisch optimierte 6400MTs und dann messen wir mal den Stromverbrauch :ugly:
Dann können wir auch nochmal die 13400F mit DDR 5 6200 CL 30 mit testen... und den Verbrauch mit messen ;)

Spaß bei Seite, aktuell geht beim Ram eine Menge, bzw. das ist die sinnvolle Stelle zum Übertakten.
Bei Intel liegt der Sweatspot, irgendwo bei 4,5-5Ghz, was den Verbrauch angeht soweit mir bekannt.

Mein 13400F geht mit nur bis zu 50W ins Rennen und hält den Takt in jedem Spiel bisher. Dabei werkelt der auch noch massiv schneller, als die PCGH Benchmarks vermuten ließen. Dank DDR5 6200 CL 30 plus otimierten Sekundär Timings.

Schlussnote:
Ich bin natürlich weiterhin für das Testen mit Hersteller spezifizierten Settings, das ist die Basis! Ist zwar aktuell etwas schade, das die Realität nicht besser abgebildet ist, aber ist halt so.

Ich weiß auch das es im Netz einige Tester gibt, die Beispielsweise alles mit DDR5 6000 CL34 testen, oder etwas anderes eher in dieser Größenordnung. Wer will das wie festlegen. Letztendlich hat der Hersteller ja schon etwas festgelegt.
 
Zuletzt bearbeitet:
Ist mir in meinen Spielen noch nicht so aufgefallen und ganz am Anfang im Video hätte ich auch denken können, das es so soll, wegen Sonne vom Wasser gespiegelt und dadruch geblendet ;)
Es ist ja nicht nur das Wasser, das war nur ein schnelles Beispiel. In Cyberpunk 2077 blitzt es quasi die ganze Zeit wenn man durch die Stadt fährt. Oder auch Forza Horizon 5, oder oder oder oder. Es gibt dutzende Beispiele. Richtig extrem ist es dann in Kombination mit HDR, weil die Lichtblitze mit der maximalen Helligkeit ballern.
Grundsätzlich würde ich dabei aber denken, das dieses Verhalten in Software gefixt werden kann. (Treiber, oder Spieleimplementierung)
DLSS Super Resolution gibt es in der Form seit bald 4 Jahren. Da wird nichts mehr gefixt. Es scheint ja auch nur die wenigsten zu stören.

Ich habe mich damit abgefunden und nutze DLSS halt quasi nie. Eigentlich bitter weil ich geplant habe auf einen der neuen 32" UHD QD-OLED Monitore zu wechseln.
Aber das ist normalerweise nicht so auffällig/störend, ist eher so wie ein zusätzlicher Akzent (zumindest in den Beispielen, die mir einfallen, eventuell gibt es auch gröbere Ausreißer).
Nutzt du einen HDR Monitor. Im Idealfall OLED?
 
Es ist ja nicht nur das Wasser, das war nur ein schnelles Beispiel. In Cyberpunk 2077 blitzt es quasi die ganze Zeit wenn man durch die Stadt fährt. Oder auch Forza Horizon 5, oder oder oder oder. Es gibt dutzende Beispiele. Richtig extrem ist es dann in Kombination mit HDR, weil die Lichtblitze mit der maximalen Helligkeit ballern.
Werde ich jetzt in Zukunft auch mehr drauf achten.
DLSS Super Resolution gibt es in der Form seit bald 4 Jahren. Da wird nichts mehr gefixt. Es scheint ja auch nur die wenigsten zu stören.
Das würde ich nicht sagen.
Ich habe mich damit abgefunden und nutze DLSS halt quasi nie. Eigentlich bitter weil ich geplant habe auf einen der neuen 32" UHD QD-OLED Monitore zu wechseln.
Bitter ist das auf jeden Fall, weil was ist hinterher das Ergebnis.

Wenn DLSS wegen so etwas ausfällt, (habe ich das richtig gesehen, das es dieses Problem bei FSR und Xess so nicht gibt) aber FSR und Xess so einen Problem nicht haben... Dann ist auch wieder egal ob FSR ansonsten etwas schlechter bei der Bildqualität ist.

Wenn DLSS ausfällt, dann wird RT zunehmend schwer nutzbar, außer man bleibt selbst mit einer 4090 unter 4k.
Wenn man aber 4k weiter nutzen möchte, dann müsste man eher auf RT verzichten. Wenn das der Fall ist, dann ist aber eine 7900XTX im reinen Rastern der deutlich bessere Deal. Klar die 4090 bliebe etwas schneller, aber würde das KO Kriterium verlieren.

Man kann auch bei 1440p bleiben, aber das will auch keiner wirklich ;)
Ich zocke inzwischen auch in 4k und würde auch nur ungern wieder zurück, aber auf RT will ich auch nicht verzichten.
Da hat Nvidia mit der Ray Reconstruction wieder ein Stein im Brett. Ist schon verzwickt aktuell.
 
Zurück