Special Bis zu 90 % Fps-Verlust: Diablo 4 Raytracing-Update im Test

Warum sollte sein Rechner ausgehen?
Überlasten im Kontext bedeutet nicht ausgehen sondern "nicht vernünftig stemmend".


Das sind Ultrasettings in 4K. Wer Regler bedienen kann, kann RT auch auf einer 3060 nutzen.
Lesen bitte. Das ist WQHD. Und man braucht DLSS Performance, um über 60FPS zu kommen. Das sieht dann halt auch aus wie Schrott. DLAA/Quality sind die einzig brauchbaren DLSS - Settings.
Wenn du erwartest, dass eine 3060 4K Ultra mit RT max. stemmt, wozu brauch es dann ne 4080/4090? Die wäre dann obsolet.
Nö, ich erwarte ja eben genau das Gegenteil. Daher mein Kommentar.
Sieht mit DLSS Quality doch total rund aus :cool:
Sei mir nicht böse aber in D4 langt das, ist ja nicht CS etc.
Ich rede heute Abend nach einigen sonnigen Seidla (halbes Bier) mit meinem FPS-Counter was er spricht... vorausgesetzt Blizzard lässt mich auf ihre shice Server :bier:

Signatur bekommt heute auch noch n kleines Update. Rest kommt in 2025 ;)
Alles gut, bin dir nicht böse, weil du eine andere Meinung hast. 38FPS (min) würden mir auch in D4 nicht reichen, da hab ich ganz gerne 60, besser 90 oder 120 .

Jo, die Signaturen sind manchmal besonders. Meine z
 
Ja gut, aber das Argument bleibt halt trotzdem bestehen. Eine 3060 ist keine WQHD Ultrakarte. Dass man da Abstriche machen muss, sollte klar sein.

Lesen bitte. Das ist WQHD. Und man braucht DLSS Performance, um über 60FPS zu kommen. Das sieht dann halt auch aus wie Schrott. DLAA/Quality sind die einzig brauchbaren DLSS - Settings.
Gibt auch noch andere Grafiksettings, die man auf "mittel" stellen kann.
 
Zuletzt bearbeitet:
Ja gut, aber das Argument bleibt halt trotzdem bestehen. Eine 3060 ist keine WQHD Ultrakarte. Dass man da Abstriche machen muss, sollte klar sein.
1712316861374.png

Ist scheinbar auch keine Full-HD Ultra-Karte. Das ist auch schon mit DLSS-Quality.

Allerdings ist in den Hardware-Daten von Dirty Harry ein WQHD-Monitor zu sehen. Daher ging ich davon aus, dass er gerne in WQHD spielt.
 
Ich sehe da 54 in einer nicht-worst-case Szene mit DLSS - Quality.
Das sind min., nicht avg.
Eine Karte wie die 3060 sollte mit mittleren bis hohen Einstellungen 60 FPS (avg.) in 1080p liefern. Wer mehr möchte, muss mehr bezahlen. Die 3060 war zu ihrer Zeit schon nur Einsteiger bis Mittelklasse.
Abgesehen davon check ich immer noch nicht, auf was du eigentlich hinaus willst. Dirty Harry kann RT mit seiner Karte nutzen, auch in WQHD und seine Aussage war nicht nur auf ihn bezogen, sondern allgemein gefasst.
 
Das sind min., nicht avg.
Korrekt. Daher sind das die "wichtigen" FPS. Niemanden kümmern die avg. FPS, wenn du dauernd Drops hast.

Und meine Kernaussage, die dann von dir (falsch, mal wieder) zitiert wurde, war nur, dass das seinen Rechner (laut Sig) überlasten würde, was bei 38 min FPS (in WQHD) auch korrekt ist. Ich meine klar, ich kann auch Pathtracing auf eienr 3060 in Cyberpunk nutzen. Läuft dann zwar mit gefühlten 0,7 FPS, aber technisch gesehen kann ich es nutzen.
 
Der Schatten ist falsch. Er fällt von links nach rechts, die Feuerschale unten rechts erzeugt zB. keine Rays.
Raytracing in spielen hat auch nichts mit Realismus zu tun. Realistischer vielleicht, aber auch nicht immer. Wenn sich die Entwickler die Zeit nehmen kann man realistischer auch ohne erreichen. Aber Zeit und Aufwand = massive kosten.
 
Korrekt. Daher sind das die "wichtigen" FPS. Niemanden kümmern die avg. FPS, wenn du dauernd Drops hast.
Ob ich "dauernd" Drops habe, zeigen die min. FPS aber auch nicht an.

Und meine Kernaussage, die dann von dir (falsch, mal wieder) zitiert wurde, war nur, dass das seinen Rechner (laut Sig) überlasten würde, was bei 38 min FPS (in WQHD) auch korrekt ist.
Ist alles eine Frage der Definition. Wenn ihm 38 FPS reichen ist das okay, aber ist auch bezeichnend, dass du dich auf die min. FPS fixierst. Avg. sind es mehr und wie flüssig es ist, zeigen dir nicht die min. FPS, sondern ein Frametime Graph.

Wenn du 1-2 Drops über den gesamten Testzeitraum hast, dann ist das zu vernachlässigen, wenn der überwiegende Großteil der Frames höher ist. Das kriegst du vermutlich nicht mal mit beim Spielen, aber mit 38 FPS kann man besser Argumentieren, nicht wahr? ;)

Ich meine klar, ich kann auch Pathtracing auf eienr 3060 in Cyberpunk nutzen. Läuft dann zwar mit gefühlten 0,7 FPS, aber technisch gesehen kann ich es nutzen.
38 FPS sind was anderes als 0,7 FPS.
 
Zuletzt bearbeitet:
Raytracing in spielen hat auch nichts mit Realismus zu tun. Realistischer vielleicht, aber auch nicht immer. Wenn sich die Entwickler die Zeit nehmen kann man realistischer auch ohne erreichen. Aber Zeit und Aufwand = massive kosten.

Seit wann das denn?
War Raytracing nicht immer der 'realistische Schattenwurf' oder die 'realistischen Reflexionen auf Oberflächen'? Ich mein die Rasterizing-Schatten werden im Artikel explizit als 'gamey' beschrieben...

vielleicht sehe ich aber auch einfach nur den Unterschied nicht zwischen Realismus und realistischer.
 
65 FPS sind okay.
Geschmackssache...

Prinzipiell bin ich auch eher einer, dem 60 fps reichen und der dafür eher auf Auflösung und Bildqualität setzt. Bei D4 bin ich aber tatsächlich auf 100fps gegangen weil es sich für mich doch glatter um nicht zu sagen "beeinflussbarer" anfühlt. Obs dann aber 100 oder 144/200+fps sind merke ich nicht mehr außer an der lauteren Grafikkarte.

Klar kann man D4 mit 60fps gut spielen aber zumindest ohne RT sind die Frames ja "billig", D4 läuft ja wenn mans drauf anlegt auf ner Kartoffel flüssig bzw ob ich das cap bei 60 oder 100 setze macht kaum nen Unterschied für meine Hardware - dann kann ichs auch mitnehmen. D4 ist grade das einzige Spiel das ich auf mehr als 60fps eingestellt habe und kein Shooter ist (wo das Ziel 144 sind).

@RyzA die HD Texturen kosten ja praktisch keine Leistung... nur vRam. Und ja, D4 klatscht in 4K die 16GiB öfter mal voll :haha:
 
Wer braucht sowas in D4?

Schon schlimm genung das die Server "Schluckauf haben" durch Always On
Nein jetzt brauch man für D4 auch noch ne RTX4090 für RT und es fällt garnicht auf ....

Was ein Quatsch !
 
Wenn du 1-2 Drops über den gesamten Testzeitraum hast, dann ist das zu vernachlässigen, wenn der überwiegende Großteil der Frames höher ist. Das kriegst du vermutlich nicht mal mit beim Spielen, aber mit 38 FPS kann man besser Argumentieren, nicht wahr? ;)
Der Testzeitraum sind 20 Sekunden. 1-2 Drops alle 20 Sekunden ist schon ziemlich nah an "RUCKELT WIE SCHEI*E". Ist das wirklich das Szenario, dass du für dein Argument suchen willst?
Klar lässt sich mit 38 FPS besser argumentieren, ist ja der wichtigere Wert. Sag doch @PCGH_Dave mal, dass er sich das Geruckele in Outcast nur einbildet, da die AVG-FPS doch völlig in Ordnung sind.

Guck mal, das ist aus Outcast:
1712319849866.png

Quelle: Klick
Avg FPS knapp 98. Alle 20 Sekunden EIN Ruckler drin. Ist für dich also vernachlässigbar?
 
Der Testzeitraum sind 20 Sekunden. 1-2 Drops alle 20 Sekunden ist schon ziemlich nah an "RUCKELT WIE SCHEI*E". Ist das wirklich das Szenario, dass du für dein Argument suchen willst?
Ein Drop von 46 auf 38 FPS alle 20 Sekunden als "ruckelt wie schei*e" zu betiteln ist schon harter Tobak.

Klar lässt sich mit 38 FPS besser argumentieren, ist ja der wichtigere Wert. Sag doch @PCGH_Dave mal, dass er sich das Geruckele in Outcast nur einbildet, da die AVG-FPS doch völlig in Ordnung sind.

Guck mal, das ist aus Outcast:
Wenn ich richtig sehe geht es hier um D4? Dann bleib auch beim Thema ;)
Abgesehen davon ist deine Kernaussage auch falsch. Ob es für ihn reicht oder nicht, kann nur er beantworten und welche Settings/Auflösung hat er nie angegeben, von daher kannst du darüber gar kein Urteil fällen.
Ich bin jetzt auch raus. Du führst die Diskussion mal wieder ad absurdum. Fakt ist, man kann auch mit der 3060 RT nutzen in D4.
Nicht in 4K, nicht mit Ultrasettings, aber das war auch nie Thema.
 
Seit wann das denn?
War Raytracing nicht immer der 'realistische Schattenwurf' oder die 'realistischen Reflexionen auf Oberflächen'? Ich mein die Rasterizing-Schatten werden im Artikel explizit als 'gamey' beschrieben...

vielleicht sehe ich aber auch einfach nur den Unterschied nicht zwischen Realismus und realistischer.
WIe will man die Realität komplett realitätsnah simulieren? Ich glaube davon sind wir noch etliche Gpu Generationen entfernt, falls das überhaupt möglich ist.
 
Du verstehst nicht, wie ein "AVG" funktioniert, oder? Wenn die Drops nur von 46 auf 38 wären, dann wäre 46 nicht der AVG sondern die MAX FPS. Aber naja, das passt halt ins Bild :)
Ich kann nichts bewerten, was ich nicht kenne. Du behaarst dauerhaft auf deiner Aussage, obwohl alles nur auf Theorie basiert.
Ob das Spiel wie scheiße ruckelt oder überhaupt ruckelt, kann weder ich noch du bewerten, weil wir den Frametime Graphen nicht kennen. Sagte ich aber bereits.
Im verlinkten Video ist der Graph recht in Ordnung, aber das ist halt auch keine 3060.

Deine Kernaussage bleibt auch weiterhin falsch. Die Settings wurden vom User nicht näher definiert und was er als flüssig empfindet auch nicht. Dementsprechend kannst du dir darüber kein Urteil bilden.

Geschmackssache...

Prinzipiell bin ich auch eher einer, dem 60 fps reichen und der dafür eher auf Auflösung und Bildqualität setzt. Bei D4 bin ich aber tatsächlich auf 100fps gegangen weil es sich für mich doch glatter um nicht zu sagen "beeinflussbarer" anfühlt. Obs dann aber 100 oder 144/200+fps sind merke ich nicht mehr außer an der lauteren Grafikkarte.
Für mich sind 60 FPS das Minimum, was erreicht werden muss/sollte. Alles darüber ist Luxus. Klar sind 120 FPS+ flüssiger und schöner, aber ich kann ein Spiel auch mit 60 FPS genießen. Mit 30 oder weniger verdirbt es mir dann aber den Spielspaß.
 
Zuletzt bearbeitet:
Zurück